Text
                    СТАТИСТИЧЕСКАЯ
РАДИОТЕХНИКА
ПРИМЕРЫ
И ЗАДАЧИ


В. Т. ГОРЯИНОВ, А. Г. ЖУРАВЛЕВ, В. И. ТИХОНОВ СТАТИСТИЧЕСКАЯ РАДИОТЕХНИКА ПРИМЕРЫ И ЗАДАЧИ Под редакцией профессора В.И.Тихонова Допущено Министерством высшего и среднего специального образования СССР в качестве учебного пособия для студентов радиотехнических специальностей вузов МОСКВА «СОВЕТСКОЕ РАДИО» 1980
ББК 32.841 Г67 УДК 621.391 : 519.27 Горяинов В. Т., Журавлев А. Г., Тихонов В. И. Статисти- Статистическая радиотехника: Примеры и задачи. Учеб. пособие для вузов / Под ред. В. И. Тихонова. — 2-е изд., перераб. и доп.— М.: Сов. радио, 1980. — 544 с, ил. Книга содержит примеры и задачи по основным разделам статистической радиотехники (теории вероятностей и матема- математической статистике, теории случайных процессов, помехо- помехоустойчивости и теории информации). Материал разбит на 18 глав. В каждой главе приведены справочные теоретические сведения, подробно разобраны типовые примеры и сформули- сформулированы задачи для самостоятельного решения, снабженные ответами. Задачи отличаются друг от друга как по сложности решения, так и по практической значимости. Предназначается для студентов и аспирантов, специализи- специализирующихся в области радиотехники и автоматического управле- управления. В качестве справочника она полезна также инженерам и научным работникам. Рис. 229, табл. 77, библ. 120 назв. Рецензент: кафедра «Основы радиотехники» Москов- Московского энергетического института. Редакция литературы по вопросам космической радиоэлектроники. 40401-022 ВО 2402020000 © Издательство «Советское радно», 1980 ПРЕДИСЛОВИЕ КО ВТОРОМУ ИЗДАНИЮ Настоящая книга написана как учебное пособие по статисти- статистической радиотехнике. По сравнению с первым изданием в книгу включены по существу три новые главы (по математической ста- статистике, марковским и точечным случайным процессам), а мате- материал по корреляционным функциям и спектральным плотностям выделен в самостоятельную главу. Кроме того, значительно об- обновлены примеры и задачи. Книга содержит 18 глав, охватывающих все основные разделы статистической радиотехники. В начале каждой главы кратко приведены теоретические сведения в объеме, необходимом для решения рассматриваемых задач. Методика применения их для решения конкретных практических задач иллюстрируется на ря- ряде подробно разобранных примеров. Затем сформулированы за- задачи, снабженные ответами. Для удобства решения задач, в ко- которых требуется получить ответ в численном виде, в приложении помещен ряд справочных таблиц. При подборе примеров и задач были использованы отечест- отечественные и иностранные источники, многие примеры и задачи со- составлены авторами самостоятельно. Всего в книге содержится 796 примеров и задач. Книга рассчитана на студентов и аспирантов, специализиру- специализирующихся в области радиотехники и автоматического управления, ее основная цель — способствовать активному усвоению теоре- теоретических основ статистической радиотехники и выработке навы- навыков применения теории к решению практических задач. Однако авторы надеются, что она будет полезна в качестве справочника также инженерам и научным работникам. Именно поэтому за- задачи и ответы помещены вместе. Работа между Авторами была распределена следующим обра- образом: гл. 5, 6, 10, 12, 14 и 15 написаны В. Т. Горяиновым; гл. 1—4, 9, 17, 18 и приложение — А. Г. Журавлевым; гл. 7, 8, 11, 13 и 16 — В. И. Тихоновым, который выполнил также общее редакти- редактирование книги. Авторы выражают благодарность рецензенту канд. техн. наук доц. В. П. Жукову за критические замечания и полезные советы.
Раздел I СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 1. ОСНОВНЫЕ ОПРЕДЕЛЕНИЯ И ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Событие — всякий факт, который в результате опыта может произойти или не произойти. События подразделяются на достоверные (U), невозможные (V) и слу- случайные (Л, В, С, ... или Ах, Аг, А3, ...). Вероятность достоверного события принимается за единицу, а вероятность невозможного — за нуль: P(U) = I, P(V) = 0. Вероятность любого события А заключена между нулем и единицей: 0 < Р(А) < 1. A.1) Если всякий раз, когда происходит событие А, происходит также событие В, то говорят, что событие А влечет за собой событие В и обозначают А с: В, где cz — знак включения. Если А cz В и в то же время В с А, то события А и В называются равносильными (эквивалентными) и обозначаются А = В. В этом случае Р(А) = Р(В). , Суммой или объединением множества событий Лъ A2, Л 3, ... называется такое событие А, которое происходит тогда и только тогда, когда происходит по крайней мере одно («хотя бы одно») из этих событий. Сумма событий А Л Л обознач п р Аъ Л2, Л ре д ( обозначается (J A3 (J U Ah, k где U — символ объединения событий (логическая операция ИЛИ). Из определения суммы событий непосредственно вытекают следующие соотношения: +V=A, А + В = В + А, А + А = Л, А + U = U, (Л + В) + С= А + (В + С). A.2) Произведением (или ' пересечением, или совмещением) событий Лъ Л2, Л3, ... называется такое событие Л, которое происходит тогда и толь- только тогда, когда происходят все события вместе («одновременно»). Для обозна- обозначения произведения событий применяются следующие записи: Л = А1А2А3 ...=ПЛйИли А = Л1ПЛ2ПЛ3П ...= Плй, ft ft где Г) — сивмол пересечения событий (логическая операция И). Для произведения событий справедливы соотношения: АА = А, AV=V, AU=A, AB=BA, (AB)C ¦= А (ВС). A.3) Для операций умножения и сложения событий, применяемых совмест- совместно, справедлив обычный распределительный (дистрибутивный) закон (Л + В)С = АС + ВС и, кроме того, так называемый «второй распределительный закон» [2] А В + С= (Л + С) (В + С) A.4) A 5) События Л, В, С, ... образуют полную группу событий, если в резуль- результате опыта непременно должно появиться хотя бы одно из них. Другими словами, сумма событий, образующих полную группу, есть достоверное со- событие, т. е. Л + В + С+ ... = U. События Л и В называются несовместными (или несовместимыми), если их совместное появление невозможно, т. е. если А В = V. Два события называются противоположными (дополнительными), если они несовместны и образуют полную группу. Событие, противоположное со- событию Л, обозначается Л. Нахождение противоположного события эквива- эквивалентно логической операции НЕ (отрицания), иными словами Л = не Л, Для противоположных событий справедливы формулы А = А, U=V, V=U, A + A = U, AA = V, A.6) АЪ, А~В^=~А^-Ъ, Л+ В = Л +АВ, А+В=1в, АВ=~А+~В. Когда рассматриваемый опыт имеет N равновозможных исходов, которые несовместны и составляют полную группу (схема случаев), вероятность со- события Л P(A)=='n/N, A.7) где п — число исходов, которые приводят к наступлению события Л (благо- (благоприятствуют событию Л). При решении задач на непосредственный подсчет вероятностей с исполь- использованием формулы A.7) общих способов для нахождения.чисел Л' и и нет. Во многих случаях целесообразно использовать «комбинаторные» способы, т. е. теорию соединений (размещений, перестановок, сочетаний). При этом часто приходится вычислять число сочетаний "п kl (n - k)\ ' A -8) Если значения п и k велики, то используют приближенную формулу Стер- Стерлинга п\ ~ (л/е)"Т/2ял. .9) Эта формула дает хорошую точность приближения и при сравнительно не- небольших значениях п. Так, например, относительная погрешность не превос- превосходит 0,1 при п > \, 0,01 — при п > 10 и 0,001 — при п > 100. В некоторых задачах понятие равновозможности событий применяется к опытам с бесконечным числом исходов, когда числа N и п определить невоз- невозможно. Иногда же проще вычислить саму вероятность события (отношение n/N), а не порознь числа исходов п и N. В таких случаях пользуются геомет- геометрическими вероятностями, которые определяются формулой Р(А) = мера g мера G ' A.10)
где G — геометрическая мера (длина, площадь, объем и т. д.) всей области, g — геометрическая мера части области G, попадание в которую благоприят- благоприятствует событию А. Кроме того, условия применимости формулы A.7) весьма ограничены (формула применима только тогда, когда опыт сводится к схеме случаев) В большинстве практических задач, связанных с реальными явлениями, ве- вероятность непосредственно связывают с эмпирическим понятием частоты. Частотой или статистической вероятностью Р* (А) события А в данной се- серии опытов называется отношение числа опытов п, в которых появилось событие А, к общему числу N произведенных опытов: Р*(А) = nlN. A.11) По теореме Бернулли при большом числе опытов частота сходится по ве- вероятности к вероятности события, т. е. при любом 8 > О Р[\Р*(А) — Р(А)\ < е] = 1. Определение вероятности сложного события А через вероятности более простых событий Alt A2, ..., Ап базируется на использовании основных теорем теории вероятностей (теорем сложения и умножения вероятностей и их след- следствий). Согласно теореме сложения вероятностей вероятность суммы двух со- событий равна сумме вероятностей этих событий минус вероятность их произ- произведения: Р(А + В) = Р(А) + Р(В)I — Р(АВ). A.12) Если события А и В несовместны, то Р(А + В) = Р(А) + Р(В). A.13) Формулы A.12) и A.13) обобщаются на сумму любого числа я событий: п \ п п — 1 п 2 л" = 2 р^- 2 2 U=i / *=i k = i i- 2 2 Р{АкА,Аг)-...+(~\Г^р( П Ah | , A.12а) *=1 i=k+l i = i+ I - ¦ Ah)= A.13a) 2 Сумма вероятностей несовместных событий, составляющих полную груп- группу, равна единице: 2 Р&к)=1- (Ы4) Су?лма вероятностей двух противоположных событий равна единице: Р(А) + Р(А) = 1. A.15) По теореме умножения вероятностей для двух событий вероятность про- произведения двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что произошло первое: Р(АВ) = Р{А) Р{В | А) = Р(В)РЩВ), A.16) где Р(А\В) — условная вероятность события А, т. е. вероятность события А, вычисленная в предположении, что имело место событие В. Рис. 1.1. Параллельное соединение эле- элементов Если событие\А статистически не зависит от события В, то Р(А\В) = Р(А) причем события А и в называются независимыми. При независимых событиях А и В выражение A.1b) принимает вид Р(АВ)= Р(А)Р(В). A.17) Формулы A.16) и A.17) обобщаются на п событий Аи А2, ..., Ап: A^ ... Р(Ап\А1А2 ... Л^), Р[ П Ак = Р(Ак). A.16а) A.17а) Решение многих практических задач требует совместного использования теорем сложения и умножения вероятностей. В частности, с помощью этих теорем производится расчет вероятности безотказной работы, например ра- радиотехнических систем. Вероятностью безотказной работы некоторой системы ( или ее элемента) называют вероятность того, что система (элемент) в течение установленного времени будет работать без отказов. При объединении нескольких элементов в систему различают их парал- параллельное соединение ( резервирование) и последовательное (основное). При параллельном соединении (рис. 1.1) отказ системы возможен только при отка- отказе всех элементов, а при последовательном (рис. 1.2) отказ системы проис- происходит при отказе любого элемента [1]. Вероятность безотказной работы Р = P(t) системы из k параллельно соединенных элементов p=\-Y\[\-pi), 1=1 A.18) где pi = pi(t) — вероятность безотказной работы j'-го элемента на интер- интервале @, t). С увеличением числа параллельно включенных элементов вероят- вероятность безотказной работы системы возрастает. Если система состоит из k последовательно соединенных элементов, то вероятность безотказной работы системы вычисляется по формуле Р= П pi. A.19) С увеличением числа последовательно включенных элементов вероятность безотказной работы системы убывает. Во многих реальных ситуациях то или иное событие А может появиться лишь как случайное следствие одного из несовместных событий Я, ((' = = 1, 2, ..., п), которые входят в некоторую полную группу событий и на- называются гипотезами. В таких случаях безусловная вероятность Р(А) со- Рис. 1.2. Последовательное соедине- соединение элементов "/ Рг Рк
бытия Л при известных вероятностях гипотез Р(#,) и условных вероятност- вероятностях P(A\Ht) определяется по формуле полной (или средней) вероятности-. Р(А)= A.20) 1= ! При этих же данных, т. е. известных вероятностях P(Ht) и P(A\Ht), можно найти изменение вероятностей гипотез Я;, если предположить, что со- событие А уже произошло. Задачи подобного типа решаются с помощью теоремы гипотез (или формулы Байеса): P(Ht\A) = P(Hi)P(A[Hj) n P(Hk)P(A\Hh) _ P(Hj)P(A\Ht) Р(А) A.21) Вероятность P(Ht) называется априорной (доопытной), а Р(//;|Л) — апо- апостериорной (послеопытной) или обратной вероятностью. В теории передачи сообщений, теории стрельбы, при контроле качества продукции и т. д. часто возникают задачи по определению вероятности появ- появления какого-то события А в результате серии опытов, в каждом из которых это событие может произойти или не произойти. Проще всего они решаются тогда, когда опыты являются независимыми, т. е. вероятность того или иного исхода опыта не зависит от того, какие исходы имели другие опыты. Способ решения подобных задач дает теорема о повторении опытов (формула Бернулли). Вероятность того, что при п независимых опытах (испытаниях) собы- событие А появится ровно к раз, если при каждом опыте вероятность события А одинакова и равна р, определяется формулой Pn(k) = Cknpkqn-k, A.22) где q = 1 — р. Формулой A.22) неудобно пользоваться при больших п. В этом случае для подсчета вероятности Рп(к) применяют приближенные формулы. 1 Если п велико, р мало, а пр = Я имеет конечное значение, то пользуются приближенной формулой Пуассона A.23) Приближенное значение относительной погрешности при применении фор- формулы A.23) вместо A.22) равно Когда npq не слишком мало, то применяется локальная формула Муав- ра — Лапласа: где Pn(k)=Pi(x)/Vnpq, ' —х2/2 Ь — пР V2я Vnpq A.24) Приближенное значение относительной погрешности при вычислении вероят- вероятности Рп (k) по формуле A.24) равно С помощью формулы A.22) можно вычислить вероятность того, что при п независимых опытах событие А, имеющее вероятность р, появится не менее к раз: 2 n{m >K)=2j^nPq = ' — 2j n P 1 ' (' -25) m — k m = 0 Вероятность появления события хотя бы один раз при п опытах равна Рп(т > 1) = 1 — q". A.26) Вероятность того, что при п независимых опытах событие А, имеющее вероятность р, появится не более к раз, определяется выражением k Рп(т<к)= 2 C™pmqn-m. A.27) Если вероятность появления события в каждом опыте равна р, то вероят- вероятность того, что в серии из п независимых опытов событие А появится от ц до v раз включительно, равна = 2 A.28; При больших п, (х и v этой формулой пользоваться затруднительно. В этом случае используют приближенную интегральную формулу Муавра — Лапласа ь Р„((Х < k < V) : где U. — Пр Vnpq г4= 1/2я V — Пр A.29) г 1 С )=—=r У2я J Количество п опытов, которые нужно произвести для того,чтобы с вероят- вероятностью, не меньшей Рь можно было утверждать, что данное событие произой- произойдет по крайней мере один раз, находится по формуле п > log(l — PJ/logO — p). A.30) Нанвероятнейшим числом кй появлений события А в п независимых опы- опытах называется такое значение к = k0, при котором вероятность Pn(k) на- наибольшая. Это число определяется по формуле пр — q < k0 < пр + р. A.31) Если пр — q — дробное число, то неравенство A.31) определяет одно зна- значение наивероятнейшего числа. Если же пр ¦— q — целое число, то неравен- неравенство A.31) определяет два значения наивероятнейшего числа. Формула A.22) составляет содержание так называемой частной теоремы о повторении опытов. Известно несколько ее обобщений. Одно из них отно- относится к случаю, когда из-за изменяющихся условий при проведении п не- независимых опытов вероятность р меняется от одного опыта к следующему (общая теорема о повторении опытов). В этом случае вероятность Рп(к) появ- появления события А ровно k раз определяется по производящей функции [3]: п Ф„(г)= П п = 2 pn(k)zk, A.32) где pi — вероятность появления события в ?-м опыте, <?; = 1 — Pi- 9
Искомая вероятность Pn{k) равна коэффициенту при гк в разложении производящей функции и может быть определена дифференцированием функ- функции ф„(г): дан Другое обобщение формулы A.22) относится к случаю, когда каждый опыт может иметь не два, а большее число исходов. Если, например, при каждом повторении опыта может произойти только одно из событий т Аг, А2, ..., Ат соответственно с вероятностями рх, р2 рт Bpi = 1), i то вероятность Pn(ku k2, ..., km) того, что при п независимых опытах событие Ах появится йх раз, событие А2 появится к2 раз и т. д., событие Ат появится т km раз B&г = п), определяется формулой полиномиального распределения ii ft, fto kx\ k2\ ... k A .34) k k k Вероятность Рп (kx, k2, ..., km) является коэффициентом при z,1 г22 zmm в раз- разложении по степеням аргументов г^ полинома . <р„ (гх, г2, .... гт) = (рл + p2z2 + ... + pmzm)«, A.35) представляющего собой производящую функцию для совокупности чисел РпФг, k2 km). 2. ПРИМЕРЫ 1.1. Доказать справедливость следующего соотношения между событиями: (А + В) С = АС + ВС. Решение. Заданный распределительный закон можно доказать путем непосредственного рассмотрения смысла утверждений, выраг жаемых каждой частью равенства. Левая часть данного равенства означает событие, состоящее в том, что произошли совместно собы- события А или В и событие С. Правая часть означает, что происхо- происходят события А вместе с С или В вместе с С (или и то, и другое). Эти два утверждения равносильны. 1.2. Показать, что А + АВ + ВС + АС = А + С. Решение. Доказательство справедливости заданного равенства проведем алгебраическим путем. Используя формулы A.2)—A.6), имеем _ А + АВ + ВС + АС = (A U + АВ) + ВС + АС = = A(U + В) + АС + ВС = AU + АС + ВС = А + АС + ВС = = А + АС + ~АС + ВС = А + С(А + А) + ВС = 1.3. Двум радиостанциям разрешена работа на десяти одина- одинаковых фиксированных частотах. Определить вероятность Р(А) того, что настроенные независимо обе радиостанции окажутся работающими на одинаковых частотах. ю Решение. Обозначим (чисто формально) частоты одной радио- радиостанции через /7, а частоты другой — через /7, i = 0, 1, ... 9, // = fi- Расположим все возможные исходы в виде таблицы: (О (О /о / 1 •• • /о 19' II (О / 1 / 1 • • • /1 /э> Г f" f Г I9/О /9/1 гл. Всего равновозможных исходов N= 10 • 10=100. Эти исходы со- составляют полную группу несовместных случаев. Исходов, благо- благоприятствующих событию А (обе радиостанции окажутся работаю- работающими на одинаковых частотах), будет п = lO(f'J'o, f'Jl •••. f'JD- Следовательно, Р(А) = nIN = 10/100=0,1. 1.4. По линии связи в случайном порядке передаются 30 знаков русского алфавита. Найти вероятность Р(А) того, что на ленте появится последова- последовательность букв, образующих слово «радио». Решение. Число всех равновозможных случаев N (число выбо- выборов из 30 букв алфавита, по 5) равно числу размещений из 30 по 5 букв, т. е. ЛГ = А\й = 30 • 29 • 28 • 27 • 26. Из этих случаев благоприятствующим событию А является только один (комбинация, образующая слово «радио»), т. е. п — 1. Сле- Следовательно, Р(А) = nIN = l/A\0 = 1/30 • 29 • 28 • 27 • 26 « 5,88 • Ю"8. 1.5. Производится прием кодовых комбинаций, содержащих пять цифр от 1 до 5. Какова вероятность Р (А) того, что в принятой комбинации циф- цифры образуют последовательность 12345? Решение. Число всех равновозможных случаев N равно числу перестановок из пяти элементов, т. е. N = Ръ = 5! =120. Из этих случаев благоприятствующим событию А является только один, т. е. п = 1. Следовательно, . Р(А) = n/N = 1/5! = 1/120. 1.6. В партии из N запасных радиоламп имеется М нестандарт- нестандартных. Для проверки выбираются наугад k радиоламп из этой пар- партии (k < N). Определить вероятность Р(А) того, что среди них окажутся ровно /нестандартных (/ <[ М). Решение. Общее число возможных выборов из N радиоламп по k равно числу сочетаний из N элементов по k, т. е. С*.Благоприят- С*.Благоприятствующими поставленному условию являются случаи, когда из об- общего числа М нестандартных радиоламп взято ровно / штук, что
T г ЛИ H h Рис. 1.3. К вычислению вероятности Р (А) О г Т т> можно осуществить См способами. Но каждый из этих случаев в кон- контрольной партии может быть в различной комбинации с остальными k—/ стандартными лампами. Число таких комбинаций равно Cn^-1m- Следовательно, общее число благоприятствующих случаев будет равно произведению CmC^Z-'m- В соответствии с определением ве- вероятности получим Р(А) = 1.7. В любые моменты интервала времени Т равновозможны поступления в приемник двух независимых сигналов. Приемник будет перегружен, если разность между моментами поступления сигналов будет меньше т. Определить вероятность Р(А) того, что приемник будет пере- перегружен. Решение. Изобразим случайные моменты поступления сигналов в радиоприемник х1 и Тг в виде декартовых координат на плоскости. Областью возможных значений тх и т2 является квадрат площадью S = Г2 (рис. 1.3). Приемник будет перегружен, если |т2 — тх| ^т. Данная область лежит между прямыми т2 — Tt = т и т2 — тх = = — т. Площадь этой области s = Т% — (Т — тJ. Следовательно, мера G S T2 1.8. Поданным ремонтной мастерской в среднем из 100 отказов телевизора 50% обусловлено выходом из строя электронных ламп, 15% — конденсаторов, 12% — резисторов, 5% — кинескопов, а остальные отказы обусловлены другими причинами. HaftTjj вероятность Р*(А) отказа телевизора по другим при- причинам. Решение. По условию вероятности выхода из строя телевизора из-за отказа различных элементов равны: Р*(Л1) = 0,5; Р*(Л2) = 0,15; Р*(Аз) = 0,12; Р*(Л4) = 0,05, где Аъ А2, Аз, Л4 — отказы телевизора, обусловленные соответ- соответственно выходом из строя электронных ламп, конденсаторов, рези- резисторов и кинескопов. События А, Аъ А2, Аз, Л4 составляют полную группу. Следовательно, Р*(А) = 1 — 2 P*(At) = 1 —@,5 +0,15 +0,12 +0,05) == 0,18. 1 12 1.9. В партии из N полупроводниковых триодов имеется М бра- бракованных. Для контроля из партии берется наугад п триодов. Какова вероятность Р (А) того, что среди них будет не более m бракованных? Решение. Пусть А — событие, состоящее в том, что среди п взятых для контроля триодов будет не более m бракованных. Со- Событие Л произойдет тогда, когда среди п взятых на проверку триодов или не будет ни одного бракованного (событие Ао), или один брако- бракованный (событие Лх), или два бракованных (событие Л2) и т. д., или окажется m бракованных триодов (событие Лт), т. е. л = +л2+... +л„ +... +лт= Вероятность Р(А k) события Л h равна P(Ab) = CMCnNz! Следовательно, по теореме сложения вероятностей событий имеем 1.10. Обнаружение воздушной цели производится независимо двумя радиолокационными станциями. Вероятность Р(А) обнару- обнаружения цели первой станцией равна 0,7. Вероятность Р(В) обнару- обнаружения цели второй станцией равна 0,8. Определить вероятность Р(С) того, что цель будет обнаружена хотя бы одной станцией. Решение. По условию события Л и В независимы, поэтому ве- вероятность совместного события А В (цель обнаружена обеими стан- станциями) Р{АВ) = Р(А) Р(В) = 0,7-0,8=0,56. Используя формулу A.12), получаем Р(С) = Р(А + В) = Р(А) + Р(В) — Р(АВ) = = 0,7 + 0,8 — 0,56 = 0,94. Так как события А я В независимы, то пример можно решить путем перехода к противоположным событиям Л и В. В этом случае Р(С) = Р(А + В) = 1 — Р(А) Р (В) = = 1—[1 — Р (Л)] [1 — Р (В)] = 1 — 0,3-0,2=0,94. 1.11. Каждая буква слова «математика» написана на отдельной карточке, карточки тщательно перемешаны. Последовательно из- извлекаются четыре карточки. Какова вероятность Р(А) получить слово «тема»? 13
Решение. Пусть Alt А2, Аз, Ak — события, состоящие в последо- последовательном извлечении букв «т», «е», «м», «а». Тогда соответствующие вероятности равны: Применяя формулу A.16а), получаем P(A)=P{A1)P{Az\A1)P(A3\A1A2)P(Ai\A1A.iA3) = _ 2 J_ _2_ J3__ I ~~~Ю " 9 '~8~'~7 420~' 1.12. Два стрелка стреляют по очереди по мишени до первого попадания. Каждый из них имеет право сделать не более двух вы- выстрелов. Зная, что при одном выстреле первый стрелок попадает в мишень с вероятностью ръ а второй—с вероятностью р2, найти вероятность того, что: 1) первый стрелок попадет в мишень; 2) вто- второй стрелок попадет в мишень. Решение. Рассмотрим следующие события: А — первый стрелок попадает в мишень, В — второй стрелок попадает в мишень, Аг— попадание у первого стрелка при первом выстреле, А1 — промах у первого стрелка при первом выстреле, А2—попадание у первого стрелка при втором выстреле, А% — промах у первого стрелка при втором выстреле, В1 — попадание у второго стрелка при первом вы- выстреле, Вх — промах у второго стрелка при первом выстреле, В2 — попадание у второго стрелка при втором выстреле. Тогда то А = Ах + А~гВ[А Так как Р(АХ) = Р(А2) = Р(ВХ) = Р(ВШ) = 1) Р(А) = Л + A - 2) Р(В) = A - рОРш В = А^у + 1^12В2. Р{Аг) = Р(А,)=1- ръ. х) = 1 - р2, - pt)Pi = РМ + 0 — Рх)A - 1.13. Система управления состоит из четырех узлов Аъ А2, Л3 и Л4 (рис. 1.4). Вероятности pt безотказной работы узлов соответ- соответственно равны р1У р2, рз, р4- Вычислить вероятность безотказной работы Р всей системы уп- управления. 14 Рис. 1.4. Структурная схема системы управления Решение. Вероятность безотказной работы р12 цепи из двух по- последовательно соединенных элементов Ах и А2 согласно формуле A.19) равна 2 Pl2= П Pi=Plp2- /=\ Вероятность безотказной работы рз4 цепи, состоящей из двух параллельно соединенных элементов Аз и Л4,определим по формуле A.18): Р34=1-П A —/?7) = 1 —A —р3) A — р4). /=з Применяя формулу A.18) еще раз, получаем: р = !_(i _ Р]2)A _ Рз4) = 1 _ A _ PlPi){\ _ р,)A _ р4). Пусть, например, рх = 0,7, р2 — 0,6, рз = 0,8, pt — 0,9. Тогда р = 1 —A—0,7 • 0,6) A—0,8) A—0,9)= 1—0,58-0,2 -0,1 = = 0,9884^0,99. 1.14. Вероятности того, что параметры одного из трех блоков радиостанции (антенно-фидерного устройства, приемника или пере- передатчика) выйдут за время полета самолета из допусков, равны соот- соответственно 0,1; 0,2 и 0,3. Если из поля допусков вышли параметры одного блока, связь не будет установлена с вероятностью 0,25, если двух блоков, то 0,4, если трех, то 0,5. Найти вероятность Р (А) того, что связь не будет установлена. Решение. К интересующему нас событию А ведут три гипотезы: Нх — за поле допусков вышли параметры одного блока; Н.г — за поле допусков вышли параметры двух блоков; Нз — за поле до- допусков вышли параметры трех блоков. Согласно теореме сложения и умножения вероятностей имеем +0,3A-0,1)A-0,2)=0,398, Р(Н ш)=0,1 -0,2A— 0,3L-0,1 -0,3A—0,2)+0,2-0,3A—0,1)=0,092, = 0,1 •0,2-0,3 = 0,006. По условию Р(А | Я!)=0,25, Р(А | Я2)=0,4, Р(А \ //з)=0,5. Следовательно, по формуле полной вероятности A.20) получим р (Л) = I P(Ht) P(A | //0=0,398-0,25+0,092.0,4 + + 0,006-0,5 « 0,139. 15
1.15. По каналу связи, подверженному воздействию помех, передается одна из двух команд управления в виде кодовых ком- комбинаций 11111 или 00000, причем априорные вероятности передачи этих команд соответственно равны 0,7 и 0,3. Из-за наличия помех вероятность правильного приема каждого из символов'A и 0) умень- уменьшается до 0,6. Предполагается, что символы кодовых комбинаций искажаются независимо друг от друга. На выходе приемного уст- устройства зарегистрирована комбинация 10110. Определить, какая команда была передана? Решение: Пусть А — событие, состоящее в приеме комбинации 10110. К этому событию ведут две гипотезы: Нг — была передана комбинация 11111; Я2 — была передана комбинация 00000. По условию Р(Ях)=0,7; Р(Я2)=0,3. Условная вероятность приема кодовой комбинации 10110 вместо 11111 равна Р(А I Ях) = 0,6-0,4-0,6.0,6-0,4 ~ 0,035. Аналогично Р(А\ Я2) = 0,4-0,6-0,4-0,4-0,6~ 0,023. По формуле A-21) находим P(Ht\A) = Р(Н%\А) = P(Hj)P(A\Hi) _ 0,7-0,035 ~0,7-0,035+0,3-0,023 0,78, k = \ 0,3-0,023 0,0314 = 0,22. Сравнивая найденные условные вероятности, заключаем, что при появлении на выходе комбинации 10110 с вероятностью 0,78 была передана команда 11111. 1.16. Производится 6 независимых выстрелов по цели. Вероят- Вероятность р попадания при каждом выстреле равна 0,75. Вычислить: 1) вероятность ровно пяти попаданий; 2) вероятность не менее пяти попаданий; 3) вероятность более трех промахов. Решение. 1. По условию вероятность попадания при каждом выстреле/? = 0,75. Следовательно, вероятность промаха q = i — p= = 0,25. Вероятность ровно пяти попаданий по формуле A.22) равна Р« E) = ClpV = 6-@,75M-0,25 « 0,356. 2. Требование, чтобы при 6 выстрелах было не менее пяти по- попаданий, будет удовлетворено, если осуществится 5 или 6 попаданий. Эти события несовместны. Поэтому по формуле A.25) имеем = 6-@,75M.0,25+ @,75)в 16 0,534. 3. Вероятность того, что при 6 выстрелах будет более трех про- промахов, равна вероятности того, что при этих 6 выстрелах будет мень- меньше трех попаданий (или ни одного попадания, или одно, или два по- попадания). Используя формулу A.27), получим 2 т т = 0 = @,25N+6-0,75.@,25M+15.@,75J-@,25L« 0,0376. 1.17. Вероятность р появления события А при каждом испы- испытании равна 0,2. Производится 400 независимых испытаний. Определить вероятность Pn(k) того, что: 1) событие А наступит ровно 80 раз; 2) событие А наступит от 60 до 96 раз включительно. Решение. 1. Воспользуемся приближенной локальной формулой Муавра — Лапласа A.24). По условию п = 400; k = 80; р = 0,2; q = 0,8. Следовательно, х = (k — прIУ npq = (80 — 400 • 0,2)/)А00 • 0,2 - 0,8=0. Тогда = Pl @)/K 400.0,2.0,8. По таблице (см. приложение I) находим рг @)=0,3989. Окончательно' получаем Р4оо(8О)=A/8).0,3989« 0,0499. Формула A.22) приводит примерно к такому же результату: 2. Используем приближенную интегральную формулу Муавра — Лапласа A.29) ¦-J 96—400-0,2 \ Л ео — 400-0,2 [ 1/400-0,2.0,8 /400-0,2-0,8 = ФB)— Ф(—2,5)=ФB) —[1—ФB,5)]. По таблице (см. приложение II) находим ФB)=0,977; ФB,5)=0,994. Следовательно, ^4ооF0 < k < 96)=0,977—1+0,994=0,991. 1.18. Противотанковое орудие ведет стрельбу по танку. Всего производится 6 выстрелов, причем вероятность попадания в танк при каждом выстреле равна 0,3. Рассчитать: 1) наивероятнейшее число попаданий в танк; 2) число выстрелов, необходимых для того, чтобы с вероятностью 0,9 поразить танк, если для этого достаточно одного попадания. Решение. 1. Наивероятнейшее число попаданий k0 находим па формуле A.31). По условию, п = 6, р = 0,3, q = 1 — р = 0,7. -Следовательно, 6-0,3 — 0,7 <; k0 < 6 • 0,3+0, 3, т. е. 17
Между числами 1,1 и 2,1 заключено лишь одно целое число — 2. Поэтому наивероятнейшее число k0 = 2. 2) Применив формулу A.30), получим п > log(l —0,9)/log(l — 0,3) да 6,45. Таким образом, для поражения танка с вероятностью 0,9 достаточ- достаточно произвести 7 выстрелов. 1.19. Система наведения ракеты имеет четыре датчика инфор- информации о цели Dx, D2, Оз, D4, информация с которых поступает в систему управления ракетой. Каждый датчик независимо от дру- других определяет параметры движения цели. Вероятности правильного определения параметров соответствующими датчиками равны: Pl = 0,9, р2 = 0,95, ра = 0,8, р4 = 0,85. Вычислить вероятности P4(fe), k = 0, 1, 2, 3, 4, того, что правиль- правильную информацию не выдаст ни один датчик и выдадут один, два, три, четыре датчика. Решение. Для определения вероятностей P4(fe) составим про- производящую функцию. По условию, п = 4; рг — 0,9; qx = 1 — Pi = = 0,1; р2 = 0,95; qt = 1 — р2 = 0,05; ръ = 0,8; q3 = 1 — рз = = 0,2; р4 = 0,85; qt = 1 — рх = 0,15 Тогда ¦ (г) = = @,1+0,9 г)@,05+0,95г)@,2+0,8 г)@,15 +0,85 г) = 0,0002 + 0,0056г + 0,0696г2 + 0,3432г3 + 0,5814г4. Искомые вероятности Р4 СО равны коэффициентам при г*. Следб- вательно, Р4@)=0,0002, Р4A)=0,0056, Р4B)=0,0696, Р4C)=0,3432, р4 D)=0,5814. 1.20. На участке обстрела находятся три цели. Вероятности pi попадания в первую, вторую и третью цели соответственно рав- равны pi = 0,4, р2 = 0,3, ра = 0,2. По участку произведено 12 выстре- выстрелов. Какова вероятность того, что в первую цель попадет 5 снарядов, во вторую — 4, в третью — 2 снаряда? Решение. По условию, п = 12, рх =? 0,4, р2 = 0,3, ръ ~ 0,2, Р4= 1 — (Pi + P2 + рз)= 1—0,9=0,1, *! = 5, fe2 = 4, kz = 2, fe4=12—5—4—2=1. Здесь р4 — вероятность попадания в область, яаходящуюся вне целей, fe4 — число попаданий в эту область. Согласно формуле A.34) искомая вероятность Р12E, 4, 2, 1) = 12! 5! 41 21 II @,4N-@,3L-@,2J-0,1 « 0,0276. 18 3. ЗАДАЧИ И ОТВЕТЫ 1.1. Разведывательная пеленгаторная система состоит из четы- четырех синхронно вращающихся антенн с неперекрывающимися ди- диаграммами направленности (рис. 1.5), причем каждая антенна сое- соединена со своим приемником. Длительность сигнала такова, что он не может быть обнаружен двумя приемниками. Найти связь события А (обнаружение сигнала пеленгаторной системой) с событиями At, i = 1, 2, 3, 4, которые состоят в обнару- обнаружении сигнала первым, вторым, третьим и четвертым приемником. Ответ: А = Аг + А2 + Дз + Д4- 1.2. Прибор состоит из двух блоков первого типа и трех блоков второго типа. Пусть события: At, i =1,2, — исправен i-й блок первого типа, Bj, / = 1,2, 3, — исправен /-й блок второго типа. Прибор работает, если исправны хотя бы один блок первого типа и не менее двух блоков второго типа. Выразить событие С, означающее работу прибора, через события At и Bj. Ответ'. С = (Аг + AZ){BXB2 + ВХВ* + ?2?з). 1.3. Известны события Д, В, С, причем A cz В. Определить сложные события АВ, А + В, ABC и А + В + С. Ответ: АВ = А, А + В = В, ABC = АС, А +В + С = В + С. 1.4. Доказать следующие равенства: 1) А + В = А_+ ~АВ, 2) А + АВ = А + В, 3) А + В = АВ, 4) А + В = АВ; 5) АВ = А + В. 1.5. Истребитель атакует боевой порядок противника, в составе которого 6 носителей и 3 постановщика помех, внешне друг от друга- не различимых. Найти вероятность того, что атакованный самолет является но- носителем. Ответ: 2/3. 1.6. В партии полупроводниковых триодов п стандартных и т бракованных. При контроле оказалось, что первые k триодов стан- стандартны. Определить вероятность Р того, что следующий триод будет стан- стандартным Ответ: Р = (п — k)/(n + т — k). 1.7. На пяти одинаковых карточках написаны цифры 1, 2, 3, 4 и 5. Две из них наугад вынимаются одна за другой. Рис. 1.5. Диаграмма направленности антенн 19
Найти вероятность того, что: а) сумма цифр на вынутых кар- карточках является нечетным числом; б) вторая цифра меньше первой; в) вторая цифра больше первой ровно на 1. Ответ: а) 3/5; б) 1/2; в) 1/5. 1.8. Набирая" номер телефона, абонент забыл последние две цифры и, помня лишь то, что эти цифры различны, набрал их на- наугад. Определить вероятность Р того, что набраны нужные цифры. Ответ: Р = 1/Л?0 = 1/90. 1.9. Принимаются кодовые комбинации, содержащие пять не- неповторяющихся цифр от 1 до 5. Какова вероятность Р того, что в одной принятой комбинации цифры образуют последовательность 12345? Ответ: Р = МРп = 1/5! = 1/120. 1.10. В собираемый радиоблок входят две одинаковые радио- радиолампы. Технические условия приема блока нарушаются, если обе .лампы с пониженной крутизной. У монтажника имеется 10 ламп, из которых 3 имеют пониженную крутизну. Определить вероятность нарушения технических условий при случайном выборе двух электронных ламп. Ответ: 1/15. 1.11. В мастерской находятся а + Ь блоков от двух различных радиоприемников, из которых два повреждены. Какова вероятность Р того, что повреждены блоки различных приемников? Ответ: Р = 2аЫ{а + b){a + b — 1). 1.12. Самолет, имеющий радиолокационную станцию с даль- дальностью действия 25, осуществляет поиск со скоростью v в достаточ- достаточно большом районе площадью S, в любой точке которого может всплыть на время / подводная лодка. Найти вероятность Р обнаружения подводной лодки радиолока- радиолокатором, если время t невелико и лодка обнаруживается при попа- попадании в зону действия радиолокатора. Ответ: Р = (лЗJ + 2-®vt)IS. 1.13. Посадочная система аэропорта обеспечивает заход на по- посадку в сложных метеоусловиях с интервалом между посадками са- самолетов не менее 5 мин. Два самолета должны прибыть на аэродром по расписанию: один в 10 ч, а другой в 10 ч. 10 мин. Какова вероятность того, что второму самолету придется ухо- уходить в зону ожидания, если первый самолет может выйти на аэрод- аэродром с отклонением от расписания в пределах ±10 мин, а второй — в пределах ±5 мин, при условии, что величины отклонений от рас- расписания в указанных пределах равновозможны? Ответ: 0,25. 1.14. Искусственный спутник Земли (ИСЗ) движется по орбите, которая заключена между 60° северной и 60° южной широты. 20 Полагая падение ИСЗ в любую точку поверхности Земли между указанными параллелями равновозможным, найти вероятность того, что спутник упадет выше 30° северной широты. Ответ: [4] : 0,21. 1.15. При испытаниях 200 случайно отобранных резисторов в течение времени t оказалось, что относительная частота исправных резисторов равна 0,95. Определить число исправных резисторов. Ответ: 190. 1.16. Проводится бомбометание по трем складам боеприпасов, причем сбрасывается одна бомба. Вероятность попадания в первый склад равна 0,01, во второй— 0,008, в третий — 0,025. При попада- попадании в один из складов взрываются все три. Определить вероятность того, что склады будут взорваны. Ответ: 0,043. : 1.17. Контролер проверяет взятые случайно изделия из партии, содержащей а изделий 1-го сорта и Ь изделий 2-го сорта. Проверка первых т изделий (т < Ь) показала, что все они второго сорта. ¦ Вычислить вероятность Р того, что из следующих четырех про- проверяемых изделий по крайней мере два окажутся второсортными. Ответ: Р = {С1-т(Л + aC3b^m + Cl-m)ICi+b-m. 1.18. На вход радиоприемного устройства поступают кодовые комбинации, состоящие из двух знаков: 1 (посылка) и 0 (пауза). Какова вероятность того, что в первой кодовой комбинации будет хотя бы один нуль, если появление нуля и единицы равновозможно? Ответ: 3/4. 1.19. Партия из 100 радиоламп подвергается выборочному кон- контролю. Условием непригодности всей партии является наличие хотя бы одной бракованной радиолампы среди пяти проверенных. Определить вероятность для данной партии быть непринятой, если она содержит 5% неисправных радиоламп. Ответ: 0,23. 1.20.-Прием радиосигналов производится на два разнесенных приемника. Вероятность правильного приема на первый приемник равна ръ на второй — р2. События, состоящие в приеме сигналов каждым приемником, считаются независимыми. Найти вероятность Р правильного приема радиосигналов. Ответ: Р — Р\+ рг — Р\Рг- 1.21. Вероятность ухода частоты принимаемых колебаний за пределы полосы пропускания приемника из-за нестабильности ча- частоты колебаний передатчика равна 0,1, а из-за нестабильности „Частоты колебаний гетеродина приемника — 0,2. Определить вероятность того, что частота принимаемых коле- колебаний не выйдет за пределы полосы пропускания приемника. Ответ: 0,72. 1.22. Произведены три независимых измерения некоторой фи- физической величины. Вероятность того, что при одном измерении ошибка превысит заданную точность, равна 0,4. 21
Определить вероятность того, что только в одном из измерений ошибка превысит заданную точность. Ответ: 0,432. 1.23. В студии имеются три телевизионных камеры. Вероят- Вероятность того, что каждая камера включена в данный момент, равна- 0,6. Найти вероятность того, что в данный момент включена хотя бы одна камера. Ответ: 0,936. 1.24. При передаче текста 10% букв искажаются и принимаются неверно. Какова вероятность того, что все пять букв данного слова будут приняты правильно? Ответ: 0,59. 1.25. По каналу связи передаются два сигнала: нуль и единица. Из-за наличия помех посланный сигнал принимается ошибочно с вероятностью 0,01 и принимается правильно с вероятностью 0,99 (независимо от того, были приняты предшествующие сигналы с ошибкой или правильно). Зная, что послана комбинация 10110, найти вероятность того, что: а) она принята без искажений; б) принята комбинация НПО; в) в принятой комбинации имеется одна ошибка. Ответ: а) 0,995; б) 0,01-0,99*; в) 0.05-0.994. 1.26. По каналу связи, состоящему из передатчика, ретран- ретранслятора и приемника, передаются два сигнала: единица и нуль. За счет воздействия помех сигналы могут искажаться. На участке передатчик—ретранслятор единица переходит в единицу с вероят- вероятностью рх и в нуль с вероятностью 1— pt; нуль переходит в нуль с? ве- вероятностью ^ и в единицу с вероятностью 1— qx. На участке ре- ретранслятор— приемник указанные вероятности соответственно рав- равны р2, 1 — р2, q2 и 1 — q2. Определить .вероятность Р того, что комбинация 10, посланная передатчиком, будет принята приемником без искажений. Ответ: Р = [р,ря + A — р,)A — q^)]\qxqz + A — <7i)(l — р2)]. 1.27. Радиорелейная линия связи состоит из т ретрансляцион- ретрансляционных станций. Вероятность безотказной работы каждой станции оди- одинакова. Станции выходят из строя независимо друг от друга, причем отказ любой станции влечет за собой отказ всей системы связи. Определить вероятность рг безотказной работы каждой станции за промежуток времени Т, если вероятность безотказной работы всей линии связи за этот промежуток времени должна быть не менее Р. Ответ: pt > Рх'т. 1.28. Между корреспондентами Ми N происходит обмен информа- информацией по схеме, приведенной на рис. 1.6, где Kt и /С2— оконечная аппаратура, а Ьг, L2, Ьз — каналы, взаимно резервирующие друг друга. Выходы из строя элементов схемы—независимые события. Вероятности безотказной работы элементов Klt Kit L1; L2, Lz за время Т соответственно равны: 0,8; 0,7; 0,9; 0,6; 0,5. 22 Кг н Рис. 1.6. Система передачи информа- информации с тремя параллельными элемен- элементами Какова вероятность того, что за время Т не произойдет пере- перерыва связи? Ответ: 0,549. 1.29. Связная самолетная радиостанция может работать в трех режимах по мощности: полной, половинной и при мощности, состав- составляющей 25% полной мощности. Вероятности работы радиостанции в этих режимах соответственно равны 0,7; 0,1; 0,2. Вероятности отказа радиостанции при работе в этих режимах за время Т составляют соответственно 0,3; 0,2; 0,05. Определить вероятность того, что за Т часов работы радиостан- радиостанция не выйдет из строя. Ответ: 0,76. 1.30. Вероятности того, что во время работы ЭЦВМ произойдет |?бой в арифметическом устройстве, в оперативной памяти, в осталь- остальных блоках, относятся как 3:2:5. Вероятности обнаружения ;сбоя в арифметическом устройстве, в оперативной памяти и в осталь- остальных блоках соответственно равны 0,8; 0,9; 0,9. ; Найти вероятность того, что возникший в машине сбой будет "обнаружен. '' Ответ: 0,87. 1.31. По каналу связи передаются два сигнала: нуль и единица. Из-за наличия помех возможны искажения сигналов: единица пе- переходит в единицу с вероятностью рив нуль—с вероятностью 1—р; нуль переходит в, нуль с вероятностью q и в единицу — с вероят- вероятностью 1 — q. Наугад отправлен сигнал. Определить вероятность Р того, что: а) на приемном конце будет получен сигнал 1; б) на приемном конце будет получен сигнал 0. Ответ: а) Р = 0,5A + р — q)\ б) Р = 0,5A — р + q). 1.32. Самолет, вылетающий на задание, создает радиопомехи, ^которые с вероятностью 0,4 «забивают» радиосредства системы |ПВО. Если радиосредства «забиты», то самолет проходит к объекту Необстрелянным, сбрасывает бомбы и поражает объект с вероят- вероятностью 0,8. Если радиосредства системы ПВО «не забиты», то са- самолет подвергается обстрелу и сбивается с вероятностью 0,7. ! Найти вероятность того, что объект будет разрушен. Ответ: 0,464. 1.33. Два из трех независимо работающих элементов вычисли- вычислительного устройства отказали. |_ Вычислить вероятность того, что отказали первый и второй эле- элементы, если вероятности отказа первого, второго и третьего элемен- элементов соответственно равны 0,2; 0,4; 0,3. Ответ: 0,298. 23
1.34. Самолет может выполнять задание на больших, средних и малых высотах, причем на больших высотах предполагается со- совершить 25% всех полетов, на средних — 10% и на малых — 65%. Вероятности выхода самолета на заданный объект на больших, сред- средних и малых высотах соответственно равны 0,75; 0,9; 0,65. Самолет вышел на заданный объект. Определить вероятность того, что полет происходил на малой высоте. Ответ: 0,604. 1.35. По двоичному каналу связи с шумами передаются токовая A) и бестоковая @) посылки с априорными-вероятностями р A)= =0,6 и /?@)=0,4. Из-за наличия помех возможны искажения сиг- сигналов: вероятность перехода единицы в единицу (вероятность при- принять единицу при передаче единицы) р — (Г| 1)=0,9', вероятность перехода единицы в нуль р @'11)=0,1; вероятность перехода нуля в нуль р@' \0) = 0,8 и вероятность перехода нуля в единицу р (Г |0)= =0,2. На выходе радиоприемного устройства зарегистрирована еди- единица. Какова вероятность того, что: а) в действительности была пе- передана 1; б) на самом деле был передан 0. Ответ: а) 0,87; б) 0,13. 1.36. Вероятности того, что при одном выстреле из орудия по- получаются недолет, попадание и перелет, равны 0,1; 0,7; 0.2. Для другого орудия вероятности этих событий равны соответственно 0,2; 0,6 и 0,2. Наугад выбранное орудие стреляет трижды. Отмечены: одно попадание, один недолет и один перелет. Найти вероятность того, что стреляло первое орудие. Ответ: 7/19. 1.37. Импульсно-кодовая комбинация образуется с помощью шести двоичных сигналов 0 или 1, которые случайным образом появляются на позициях кодовой комбинации независимо друг от друга. Появление сигналов 0 и 1 на каждой позиции равновоз- можно. Вычислить вероятность того, что в кодовой комбинации появит- появится число нулей, меньшее двух. Ответ: 7/64. 1.38. При вращении антенны обзорного радиолокатора за время облучения цели успевает отразиться 8 импульсов. Для обнаруже- обнаружения цели необходимо, чтобы через приемник на индикатор прошло не менее 6 отраженных импульсов. Вероятность подавления импуль- импульса шумом в приемнике равна 0,1. Определить вероятность обнаружения цели за один оборот ан- антенны радиолокатора. Ответ: 0,96. 1.39. Радиоэлектронный комплекс самолета-бомбардировщика включает в себя 10 объектов. Вероятность безотказной работы каж- 24 дого объекта в течение времени Т равна 0,9. Объекты выходят из строя независимо один от другого. Вычислить вероятность того, что за время Т: а) откажет хотя бы один объект; б) откажут ровно два объекта; в) откажут не менее двух объектов. Ответ: а) 0,652; б) 0,194; в) 0,264. ¦ 1.40. На ограничитель поступает последовательность из вось- восьми случайных по амплитуде независимых видеоимпульсов. Вероят- Вероятность превышения порога ограничения каждым импульсом равна 0,25. Вычислить: а) вероятность того, что из 8 импульсов не менее 6 видеоимульсов превысит порог; б) наивероятнейшее число видео- видеоимпульсов, превысивших порог. Ответ: а) 0,00422; б) 2. 1.41. Вероятность попадания в самолет при одном выстреле рав- равна 0,01. По самолету производится 100 независимых выстрелов. i Определить вероятность двух попаданий в самолет. ' Ответ: Р100B) да 0,184. 1.42. В передаваемой по каналу связи последовательности ¦Знаков, образующих сообщение, любой знак из-за помех независимо искажается с вероятностью 0,2. Независимым образом передано 10000 знаков. [ Какова вероятность того, что в принятой последовательности ¦будет от 2000 до 2100 искажений? Ответ: 0,494. 1.43. Вероятности разрегулировки датчика опорных частот, передатчика, приемника и антенно-фидерного тракта за время Т работы радиостанции соответственно равны 0,4; 0,2; 0,3; 0,3. Найти вероятность отказа радиостанции за время Т, если из-за разрегулировки одного блока радиостанция отказывает с вероят- вероятностью 0,3, из-за разрегулировки двух блоков—0,5, трех блоков — 0,7, четырех—0,9. Ответ: 0,316. 1.44. По линии связи передано четыре радиосигнала, имеющих различные амплитуды. Вероятности приема каждого из сигналов JBe зависят от приема остальных и соответственно равны 0,2; 0,3; |>,4; 0,5. ? Определить вероятность того, что: а) будет принято k сигналов |fe = 0, 1, 2, 3, 4); б) будет установлена двухсторонняя радиосвязь, 'фсли вероятность этого события при приеме одного сигнала равна §Э,2, при приеме двух сигналов—0,6, а при приеме трех и четырех Сигналов — единице. Ответ: а) 0,168; 0,394; 0,320; 0,106; 0,012; б) 0,389. 1.45. Девяти радиостанциям разрешена работа на трех волнах: Х-2 и Яз. Выбор волны на каждой станции производится случайно. р Найти вероятность того, что на каждой из волн будет работать ;Точно 3 станции. Ответ: 0,0854. 25
2. ЗАКОНЫ РАСПРЕДЕЛЕНИЯ И ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ОДНОМЕРНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Случайной величиной называется такая переменная величина, которая в результате опыта может принимать то или иное заранее неизвестное значе- значение. Различают два основных типа случайных величин: дискретные и не- непрерывные. Дискретная случайная величина может принимать конечное или бесконечное счетное множество значений х,- (их можно пронумеровать). Воз- Возможные значения непрерывных случайных величин не могут быть заранее перечислены и непрерывно заполняют некоторый промежуток или даже всю ось. Часто встречаются случайные величины смешанного типа, которые могут и непрерывно заполнять некоторый промежуток и принимать отдельные дискретные значения. Полной статистической характеристикой одномерной случайной вели- величины является закон распределения вероятностей. В случае дискретной слу- случайной величины X под ним понимается соотношение, устанавливающее за- зависимость между возможными значениями Xt дискретной случайиой величииы и их вероятностями pi = p(xt). Закон распределения дискретной случайной величины можно задать в различных формах: табличной (ряд распределения), графической (многоуголь- (многоугольник распределения), аналитической (в виде формулы). Универсальной характеристикой, одинаково пригодной как для дискрет- дискретных, так и для непрерывных одномерных случайных величин, является функ- функция распределения вероятностей Ft(x), определяющая вероятность Р того, что случайная величина X примет значение меньше некоторого числа х: Ft(x) = P(X<x). B.1) Функцию распределения Ft(x) иногда называют также интегральной функ- функцией распределения или интегральным законом распределения. Функция распределения обладает следующими свойствами: 1. Fi(— со) = lim F1(x)=0. 2. oo)= lim + 3. F^x) — неубывающая функция, т. е. F^x^) > Fi(*i) при x2 > xt. 4. P(Xl < X < x2) = Ft(x2) - F1(xl). B.2) Функция распределения дискретной случайной величины представляет собой ступенчатую функцию со скачками в точках х1г хг, ... (рис. 2.1, а), функция распределения непрерывной случайной величииы — непрерывную функцию (рис. 2.1, б) и функция распределения смешанной случайиой ве- величииы—¦ кусочно-непрерывную функцию с ие более чем счетным числом скач- скачков (рис. 2.1, в). В прикладных задачах предполагают, что функции распределения непре- непрерывных случайных величин дифференцируемы во всей области возможных значений случайных величин. При таком предположении непрерывная слу- случайная величина X чаще всего описывается плотностью распределения ве- вероятности pi(x), которая иногда называется дифференциальным законом ра- распределения или дифференциальной функцией распределения. Плотность вероятности определяется как производная функции распределения: Pl(x) = dFt(x))/dx. B.3) Плотность вероятиости обладает следующими основными свойствами: 1. Плотность вероятиости неотрицательна, т. е. pt(x) > 0. 26 I , 1 | 1 (*>з) 1 О Xf Xj_ ?3 Xif. a) О 6) О 3>2 <2?з X в) Рис. 2.1. Функция распределения дискретной (о), непрерывной (б) и смешан- смешанной (в) случайных величин 2. Вероятность попадания непрерывной случайной величины в интервал (xi, x%) равна интегралу от плотности вероятности в этих пределах: P(Xl =] Pl(x) dx = B.4) 3. Интеграл в бесконечных пределах от функции pt(x) равен единице (условие нормировки): Pl(x)dx=\. B.5) Очень важное практическое значение имеет гауссовская (нормальная) плотность вероятности рг (х), которая имеет вид (х или B.6) B.7) где т — математическое ожидание (среднее значение) случайной величины X, а2 = D(X) = Dx — дисперсия, а = + Л/ох — среднее квадратическое (стандартное) отклонение, ? = ра^/2 — вероятное (срединное) отклоне- отклонение X; р = 0,476936... ,: При гауссовском распределении вероятность попадания случайной ве- величины X в заданный интервал (а, Р) «"де Ф(г) г =—— Г t-x' . ф(_г) = 1_ B.8) B.9) У— табулированный интеграл вероятности. Значения Ф (г) приведены в при- приложении II. 27
Для дискретной случайной величины плотность вероятности п Pi(x)= B.10) 2 (=1 где xi — возможные значения случайной величины X, р, — вероятности воз- возможных значений xt, 6(z — z0)—дельта-функция (импульсная функция, функция Дирака). Дельта-функция обладает следующими свойствами: О при Z = Z|), при г ф г0, f 6(z —zo)dz= 1 при любом е > О, г„-е 2„+8 j /(zN(z—zo)dz = jf(zo), 20-е г„ г„ + е Г 6(z-zo)dz = ( 6(z-zo)dz=- B-11) е > 0. В табл. 2.1 приведен ряд законов распределения дискретной случайной величины и соответствующие им характеристические функции 6t (/Ъ), а также графики законов распределения при различных значениях параметров ра- распределений. Аналогичные данные по законам распределения непрерывных случайных величин представлены в табл. 2.2 [1,5—15]. Во многих практических задачах трудно или даже невозможно полностью определить функцию распределения случайной величины. Иногда в этом и нет необходимости. В таких случаях полное описание случайной величины при помощи закона распределения может быть заменено указанием отдельных па- параметров (числовых характеристик) этого распределения. Наиболее важными числовыми характеристиками случайной величины X являются математическое ожидание М(Х) = тх и дисперсия D(X) => = Dx = al Для дискретной случайной величины X математическое ожидание тх = М{Х)= J] *tPi- B-12) Если X — непрерывная случайная величина с плотностью вероятности . то тх= j xPl(x)dx. B.13) Формулы для дисперсии соответственно имеют вид; п тхJ] = М(Х1) = 2 (Ч-тх B.14) = J (x-mx)*p1(x)dx, B.15) где х0 = X — тх — центрированная случайная величина, т. е. отклонение случайной величины X от ее математического ожидания. 28 Математическое ожидание определяет абсциссу центра тяжести кривой1 распределения, а дисперсия — рассеивание (разброс) случайной величины относительно ее математического ожидания. Рассеивание случайной величи ны часто характеризуют средним квадратическим отклонением <*x=JAj?. B.16) Кроме математического ожидания, в качестве характеристик положения случайной величины применяются иногда медиана и мода. Медианой Ме (иначе срединным или вероятным значением) называется такое значение случайной величины X, при котором Р(Х < Ме) = Р(Х > Ме) 1/2. B.17) Для непрерывной случайной величины X медиана находится из условия Fi(Me) = 1/2 или j Pi(x)dx = j pt(x)dx. Для дискретных случайных величин медиана определяется неоднозначно- и практически не употребляется. Модой М (наивероятнейшим значением) называется такое значение случайной величины X, для которого в случае дискретного распределения ве- вероятность Р(Х = М), а в случае непрерывного распределения плотность ве- вероятности Pi(M) имеют наибольшее значение. Если максимум один, то ра- распределение называется одномодальным (унимодальным), а если несколько — то многомодальным (полимодальным, мультимодальным). При описании непрерывного распределения используют иногда кван- квантили. Квантилем, отвечающим заданному уровню вероятности р, называ- называется такое значение х = хр, при котором функция распределения Ft(x) при- принимает значение, равное р: F1(xp) = p. B.18) Общими числовыми характеристиками случайной величины являются моменты и энтропия (см. гл. 17 и 18), которые представляют собой неслучай- неслучайные величины (числа). Характерно, что моменты более низкого порядка не- несут в себе больше сведений о случайной величине, чем моменты более высокого порядка. Моментом k-то порядка случайной величины X относительно про- произвольной точки а называется математическое ожидание величины (X - а)*: mh(a) = М(Х — af. B.19) Момент, рассматриваемый относительно начала координат (а = 0), называет- называется начальным, а относительно математического ожидания (а = тх) — цен- центральным. В некоторых случаях используются абсолютные и факториальные мо менты, которые соответственно определяются формулами: pfc(a) = М(\Х - т {а) = М([Х - a B.20) B.21) где zW = г(г — \)(г — 2) ... (z — k + 1). С помощью факториальных моментов можно в более компактном виде записать моменты некоторых дискретных распределений (типа биномиального) н, кроме того, в задачах определенного класса, включающих дискретные слу- случайные величины, часто удобно находить начальные моменты ть, предвари- предварительно вычислив факториальные. 29
Законы распределения диск 2. Биномиальный (Бернулли) Закон распределения 1. Гипергеометри- Гипергеометрический 3. Полиномиаль- Полиномиальный 4. Пуассона Область изменения значений случайной величины ?=0,1,2, . min (M, п) = 0, 1, 2,..., п fei=0, 1, 2 п, п, =0, 1, 2,..., п, 1 = 1 = 0. 1, 2,... Аналитическое выражение чакона распределения k f>n—к 30 ретиой случам ной величины Определяющие параметры N, М, П П,р п и любые т— величин из Pi, Рч Рт График закона распределения о, г N-го п-10 о г «- б в 0,2 0,1 - - I I I III л- Р- I. -10 -0,4 О 2 70/t 0,2 0,1 РпШ ж: О 2 tf В 8 10 к 31 Таблица 2.1 Характеристическая функция в, (/о) min(Af.n)
Продолжение табл. 2.1 6. Равномерный Закон распределения 5. Геометрический (Фарри) 7. Отрицательный биномиальный 8. Полна Область изменения значений случайной величины = 0, 1, 2,... = \, 2,..., п = n, и или = 0, 1, 2, = 0, 1, 2,... при а=0; =l, 2,... при а > О Аналитическое выражение закона распределения P(k)=- = С* + Д_,/»"(! —Р)* 1 + оА X X Ы а > О, X > О, 32 2 Зак. 1203 33 Определяющие параметры Р п п, р а, X График закона распределения а,и- о,г - P=O,f ||.. о г и s в ю к 0,1 0,1 Р(к) П=1О п г 1/ S 8 10к о,ю\- о,ок Р(к) n=U 0 Z Ь Б 8 10 к 0,10 0,05 0 Р(к) а-0,5 "Illlllllr Z « 5 8 10 к Характеристическая функция 9, <ivi p[i-(\-p)JTl е/°A-е/от) лA-е/а) И1-A-Р)е'Тп [1+аХA-е'°)]-1/а
Законы распределения непрерывной Закон рас- распределения Область значений случайной величины Аналитическое выражение плотности вероятности О ч с а. График плотности вероятности р,(х) 1. Равномер- Равномерный (прямо- (прямоугольный) а<х<Ь Ь—а а, Ь 1 6-а О а Ь 2. Гауссовс- кий (норма- (нормальный) —оо<*<ос (х— т, а 3. Гауссов- ский стан- стандартный —оо<*<оо т = 0, а=1 0,8 Р,№) er=f -Z-1 О 1 Z я 4. Усечен- Усеченный гауссов- ский ехр Г а<х<Ь _ (Ь—т\ [а—т\ Ф —Ф \ ° ) \ о ) т, а а, Ь 0,8 Pi «в) 6=0,5 а-т~в О 1 ml a b 34 случайной величины Таблица 2.2 Аналитическое выражение функции распределения График функции распределения Ft(x) Характеристическая функция в,(/о) О, х<а, х—а -, а<х<Ь, Ь—а I, х>Ь о а eibv _ jv(b—a) г я ехр Umv — —- j 1,0 Ft(X) а-1 -1 о 1 [•('¦?)- х < а, 1,0 401 1, x>b О 1 mZ 3 а Ь r. v2 a3 \ /rim — —— | \ с ехр I/от— —— jx 35
Закон рас- прелеления U6jk:c if значений случайном 1елимины Аналитическое выражение плотности вероятности 3 Q. pa 5. Логариф- мически- гауссовский 6. х'2-рас- пределение 7. Гамма- распреде- 0<х<оо 0<*<оо !oge Г (log*—mJl xexp — — '- m = M(logX), -* е m, a 1 рафик плотнооти вероятности m=1 в-, = 0,5 о 1о го зо х оЛ о,ю\ 0,0A 0 ЕИ 10 =1 ,10 ? го го \ Зо х 0<*<оо 8. х-распре- деление 0<*<оо п—1 х е Гт a, P *>—I P>0 Щ 0,5 Pf<X) a=0 /=/ 0 Z 'f 6 x 1,0 0,5 Pj(x) К /П-1 V / 1 о 1 г з х 36 Продолжение табл. 2.'/ Аналитическое выражение функции распределения (О, Ф (log*—т. t—m \ о J' (п х Г ~ х<0, , х>0 График функции распределения F(> 0, Г@?+1) n x* ¦(т) 1,0 0,5 e ю to x 1,0 0.5 Характеристическая функция 6(/) Z « Вх О,5\ /у(х) п- 0 1 г A -2/0) ma—x Хе О-п(—/о), где Dp (г)—функция параболического ци- цилиндра 37
Закон рас- распределения 9. Распреде- лейие моду- модуля много- многомерного вектора 10. Распре- Распределение мо- модуля гаус- совской случайной величины 11. Коши 12. Бета- распреде- Область значении случайной величины 0<х<ос 0<ж<оо -ОО<Х<ОС Аналитическое выражение плотности вероятности Pi (-О 2х" -1 <2o2) 2 Г — о У 2л. X + ехр Г L 2а2 ..ft— l В (a, b) В (а, Ь) = Г (а) Г (Ь) /г, а /п, а h, a, b a>0, i рафик плотности вероятности ( щ г з х е- 2s За я 0,3 0,2 -го г 1,0 1,0 0,5 1,0 x 38 Продолжение табл. 2.2 Аналитическое выражение функции распределения \2 ; 2о\ х<0, х>0 г — 0, х<0, х—х0 0, Bx ia В (a, 1, .b) b) ' x<0, x>l 1,0 0,5 С rf(x, ' 0,5 I 1,0 x где 8Ж (а, Ь) — неполная бета-функция График функции распределения 1,0 0,5\ о 1 г ff(X) 0,5 о 1 г зх 1,0 0,5 П а) -2 0 2 Характеристическая функция е,(/о) Г (я) ¦X xexp — )_„(/ш) г.,г a'v e e""" X m +е -/omm _ — exp {/xot>— Г (а) X Г(а+т) т=0 т\ Г(а+Ь+т) 39
Закон рас- распределения Область значений случайной величины Аналитическое выражение плотности вероятности Il lia 13. Релея 14. Обоб- Обобщенный за- закон Релея (Раиса) 15. т-рас- пределение (Накатами) 16. Макс- Максвелла 0<х<оо 0<Х<СО 0<Х<ОО х /0 Г (т)[ а m xexpl — — т 2 1 1/ - — а, а < рафик плотности вероятности 2 Z=X \p,(z) Ь-0 b-a/e О 1' U z-x/s 1,5 1,0 0,5" О f 2 z=x/<3 Z z=x/3 40 Продолжение табл. 2.2 Аналитическое выражение функции распределения 0. 1-е Х<0 X' 2а' 0, a' 2a' ХГ X<0, \* X x>0 0, Г m; тх* Г(т) х>0 0, График функции распределения 1 Zz-x/s 0,5 0 11 z=x/e 0,5 m-Z О 7 Z z-я/в Ft(z) О 1 Характеристическая функция 01(/o) \+iav\/ — W -=¦ —табулированный интег- интеграл вероятности от комплексного аргумента Г Bт) о'о' Xi'-sm -¦ /jr—
Закон рас- распределения 17.Стьюден- та B-распре- деление) 18. Эрланга к-го порядка 19. Вейбул- ла 20. Фише- Фишера—Снеде- кора (F-pac- пределение) область значений случайной величины —оо<Х<оо 0<х<оо 0<х<оо 0<*<оо Аналитическое выражение плотности вероятности *±i 2 сои» е-"™ X -—1 X ^ ^ я 3 О Ч С D. (ft-це- лое) с>0, а>0 /г,, /г2 График плотности вероятности ) -г о- г я Д=2 о 1 г 1,5 1,0 0,5 Prfx) - Г [\ с -2 -5 V- -/ / 12 3ц 1,0 0,5 О 1 I S х 42 Продолжение табл 2.2 Аналитическое выражение функции распределения Р,(АГ) *±i 2 0, *<0, о, 1 — х<0, х>0 График функции распределения 1,0 ¦-г о г ш 1,0 OJS Ff(X) 0,5 о 1 1,0 0,5 F, (х) о 1 г ъх 43 Характеристически, функция в,(/в) СО fr+1 е1т A, т.
Закон рас- распределение 21. Лапласа (двухсторон- (двухсторонним экспо- ненциаль- ненциальный) 22. Экспо- Экспоненциальным односторон- односторонний (пока- (показательный) 23. Двойное показатель- показательное распре- распределение 24. Показа- тельно-сте- тельно-степенной Област.- зиачеиий случайной величины 0<Х<оо Аналитическое выражение плотиэсти вероятности Р, (х) >-М к —м. | ,—ах —се" 0<х<оо 25. Симпсо- на (треуго- (треугольный) а<х<Ь т\ о, 4(*-д) F-аJ " 4(b — x) a+b (b-af 0, b+a 2 ' <х<Ь, Ь<х<оо A,. с>0, а>0 График плотности вероятности ( Р,(х) -OJSOB,S 1,5 Z,5 X %5 1,0 0,5 О 1 3 х 0 1 Z x о г if в х г Ь-а О а а+Ь д 1 44 ¦Г Продолжение табл. 2.2 Аналитическое выражение функции распределения FAX) График функции распределения 110! 0, 1—e' 1,0 0,5 FHX) 0 1 2 3 Fftt) -7 1 г 0, Г(т+1; л:) , x>0 0, 2 (ж—аJ {b-af —oo<x<a, .a+b 2 I — 2(b — xK a+b {b -a)' 2 <X<b b<x<oo 1,0 0,5 о г 1,0 Fi(x) 0 a a+t t x Z Характеристическая функция В, (/В) X2 X—jv — аK аK х
Закон рас- распределения 26. Аркси- Арксинуса 27. scha* 28. Тихоно- Тихонова 29. Область значений случайной величины —а<х<а —оо<*<сх> —ЖЖЯ Аналитическое выражение плотности вероятности Р, (х) я 1/а2— „D cos х 2я/„ Г(у) ov-i Г211. fit, D v>0 График плотности вероятности U) ~а_й_ 0 а_ ах 0,5а Продолжение табл. 2.2 Аналитическое выражение функции распределения График функции распределения - Характеристическая функция е,(/о) Li, x<-a, 1 1 х —-+— arcsin — , 2. я а —а<х<а I, х>а 2я/„ eD cos ' dt 'to -a О а я 1,0 FiW 1 0 1 " a dx = где ^0(г)—функция Бес селя нулевого порядка первого рода 1,0 0,5, -1 0 1 В ] (cos/)v-'rf/ 1,0 ¦i=3 -1 0 1 X vn 2а sh УЯ 47
X s s 4 a> m к 2 X 95 ев г. 5 X a. a> о X 4 о a о н X 1 О a s X Oj 4> El & с о a 4 Формулы д g x a> 8 X a> CO O- 3 u 3" ИХИ иал 2 X s ЕГ S 11 О учайн в 1 3 о. а. с о» X .0 Ч Cj в О «с в* 5 О 1И1. 0J О. а: s анменование момента X 'н II Б И II л; Б га Ч я си О с о и ¦в Б i- X о S •к Я 3 IfBhB X Б 1 1 s | о-й: Б ._ ¦ее н S >Г — '1 * = II 1! =Б* ¦Л ч а. О с о и Б ! S о S '§ ал: ентр 8:—м || со. — — II — II ее начальный момент Pft ка з I Е ° 9С ч о О ь- н Б * я 8 1 1 О.4* СО. н Б I i — 1! ^_ о II СО. центральный момент EJJ дка •S о. з о X С я 2 1 g H 8 || Б* сГ =/nji II II 11 б" — зш начальный момент т, дка х к « с ?р а кто е Н S | „j 8 II О' Б н Б 1 || II ^< II •и 01—1 Б ый центральный момент порядка X О Л с Ч 1 я •« о. - is" га е 48 В табл. 2.3 приведены аналитические выражения различных моментов для дискретной и непрерывной случайных величин. Из приведенных данных видно, что математическое ожидание, определяемое формулами B.12) и B.13), представляет собой начальный момент первого порядка. Для любой случайной . величины центральный момент первого порядка равен нулю, а центральный момент второго порядка представляет собой дисперсию. Абсолютные моменты четных порядков совпадают с обычными моментами. При решении практических задач наиболее часто используются началь- начальный момент первого порядка mt (математическое ожидание), начальный мо- момент второго порядка т2 (средний квадрат случайной величины), центральный момент второго порядка /л§ (дисперсия), центральные моменты третьего и чет- четвертого порядков, а также абсолютный центральный момент PJ первого по- порядка, называемый средним арифметическим отклонением. С центральным моментом третьего порядка т$ связан коэффнциент асим- асимметрии Yi, характеризующий «скошенность» распределения, а с центральным моментом четвертого порядка ml — коэффициент эксцесса у2, показывающий «крутость» распределения вероятностей. Для симметричных относительно математического ожидания распределений все моменты нечетного порядка (если они существуют) равны нулю и асимметрия отсутствует. Эксцесс нор- нормального распределения равен нулю. Если кривая плотности вероятности pt(x) имеет более острую и высокую вершину по сравнению с нормальным распределением, то эксцесс положителен; если более низкую и пологую, — то отрицателен. Коэффициенты асимметрии и эксцесса определяются соот- соответственно формулами: Vi = тра3, B22) 72 = т\1а* — 3. B.23) Моменты — не единственные постоянные, характеризующие распреде- распределение случайной величины. Для теории более полезна другая совокупность постоянных, называемых семиинвариантами (или кумулянтами) х&. Отличие их от моментов относительно произвольной точки состоит в том, что все семи- семиинварианты (за исключением первого) инвариантны относительно изменения начала отсчета. Название «семиинварианты» как раз и обусловлено их ин- инвариантными свойствами. Различные моменты и семиинварианты связаны между собой следую- следующими соотношениями [1, 10, 11]: «* (= 0 B.24) B.25) т% +6mf tn% +т\ .... , т\ =т3— 3 B.26) B.27) = m3— 3m2 + 2m,., B.28) B.29) 49
x2, mSJ = B.30) B.31) B.32) B.33) и4 = т4 —4m, m$ — 3m2 -\- \2m\ m2 — 6mf, ... В формулах B.28) и B.29) предполагается, что возможные значения слу- случайной величины отличаются на единицу. В случае аналитического задания закона распределения (в виде формулы) определение моментов сводится к вычислению соответствующих сумм и инте- интегралов (см. табл. 2.3). Расчет моментов упрощается, если воспользоваться аппаратом характеристических функций. Характеристическая функция Qi(jv) определяется как математическое ожидание случайной величины eJvx, т. е. = J e"" Pl(x)dx B.34! где v — вещественная величина, / = "J/— 1. Используя представление плотности вероятности Pi(x) в виде суммы дельта-функций, формулу B.34) можно распространить на дискретные слу- случайные величины: в,(/в)= B.35) где xi — возможные значения случайной величины X, pt = Р(Х = х,-) — соответствующие им вероятности. Плотность вероятности pt(x) однозначно выражается через характеристи- характеристическую функцию: Pi (х) = I B.36) Из B.34) видно, что при изменении знака у показателя экспоненты оп- определение характеристической функции совпадает с определением спектраль- спектральной функции. Поэтому для нахождения 6^/в) по известной плотности рх(х) или Pi(x) no et(/a) можно пользоваться таблицами преобразований по Фу- Фурье (или по Лапласу с учетом пределов интегрирования). Для определения моментов ть случайной величины X нужнр вычислить k-ю производную от характеристической функции по параметру v и положить ?)= 0: '"" /* dvk Семиинварианты ид определяются из соотношения B.37) 1пв,(/о)= У -77-< Вместо характеристических функций называемые производящие функции [10—12]: B.38) часто используются так = УИ(ем) = J eoxPl(x)dx . B.39) 50 '4. I X а) Т S) Рис. 2.2. Взаимно-однозначное функциональное преобразование; а -» прямая функция, б — обратная функция Существенное различие между ними состоит в том, что характеристи- характеристическая функция существует всегда, а производящая функция — только в случае существования всех моментов. В табл. 2.4 приведены формулы для основных числовых характеристик дискретных законов распределения, а в табл. 2.5 — для наиболее распростра- распространенных непрерывных законов распределения [1, 4—16]. Во многих инженерных вероятностных расчетах, например при изучении прохождения случайных сигналов через линейные и нелинейные системы (см. гл. 10—12), часто требуется определить плотность вероятности Piiy) случайной величины Y по известной плотности вероятности Pi(x) случайной величины X и известной функциональной связи Y = g(X) случайных вели- величии Y и X. Если обратная функция X = h(Y) однозначна (рис. 2.2), то правило пре- преобразования плотностей вероятностей случайных величии определяется фор- формулой РМ = Pi(x)\dxldy\ = Pl[h(y)] | dh(y) Idyl B.40) Если обратная функция X = h(Y) неоднозначна, например имеются две ветви обратной функции ti^y) и h2(y) (рис. 2.3), то плотность вероят- вероятности р1 (у) находится по формуле РМ = Pi\hM\ I К(у) | + pih^y)] | h'2 (у) I . B.41) Если число ветвей обратной функции больше двух, то в правой части формулы B.41) следует брать сумму по всем ветвям п pi(y)= 2 ММу)]|а/(у)|, Ю Рис. 2 3 Квадратичное (двухзначное) преобразование: о —прямая функция, б — обратная функция 51
Основные числовые характеристики Наименование Гипергео- Гипергеометрический Биноми- Биномиальный Пуассона Равномер- Равномерный Полна М пр M(N—M)n(N—n) npq, q=\—p 12 k(\+ak) Центральный момент ni'>, коэффициент асимметрии Vi M){N — — 1)(W — 2) Xn(N—n)(N — 2rt), (N — 2M) (N — 2n) yW^l (N — 2) УМ(М—M)n(N—n) m%=npq(q — Yi = - npq Yi=0 Yi = Таблица 2.4 ¦дискретных законов распределения Центральный момент mj, коэффициент другие соотношения лля momchtoi Л1 (Л/ — Л*) я (.V — п) 4 N*(N — 1)(/V — 2)(N— 3) X {№ (N + 1) — &N2 n (N — n) + \f—/W) [Ма(/г— 2) — + 6/г(УУ-/г)]} X l =3/t? 72 = (na — 1) C/г2 — 7) 240 1.2 + n?-\ m»=3a2 dmk ft —l mfe+i=mfe+X ^ С" ' т ( = 0 n-i 52 53
Таблица 2.5 Основные числовые характеристики Нанменованш закона Равномерный Нормальный Нормальный стандартный Бета- распределение Релея Вейбулла Лапласа Экспоненциаль- Экспоненциальный односторон ний Гамма-распре- Гамма-распределение а + Ь а+Ь с "¦ X xrf,+-L ее а* (Ь-а)г 12 ah "('-7 - п 11 + — к* 1 Центральный момент тО коэффициент асимметрии т%=0, тч =аз (л — i J A3 31/2" Tl= непрерывных законов """' 1 Центральный момент ff 1 коэффициент эксцесса (b—af "il ~~ 80 ' Va= —1,2 m»=3a4, m°=3, r 4 24 m* X* 9 m4 =T7"' Y2=6 6 ri-a+! распределения • Другие соотношения для моментш- &ft+i-a*+' Ь ~ ^ — a k -(— 2 Bk)\ I a2 \ft 2ft ы 1 о 1 ' fe+I ¦ [fc/2j ^ (ft —2i)! i! [ft/2] — наибольшее целое число, не превосходя- превосходящее ft/2 . B*)'- / 1 \* а" 'fc ft! \ 2 У ' T(a + b)r(a+k) '""~ Г (а) Г (a +6+ k) / k+2 \ k ( = 0 k k 0 — V 1 \V Г1 ' 1 = 0 mft=ft!^,-fc, ft + 1 к mh +1 == (И+ fe + 1) Pfflft , 54 55
где п — число ветвей (число неоднозначностей). Задача преобразования плотностей вероятностей рассматривается только для непрерывных случайных величин. Функциональное преобразование дискретной случайной величины не изменяет распределения вероятностей; оно изменяет только ее возможные значения. Определение числовых характеристик случайной величины У = g(X) яв- является частным случаем рассмотренной задачи. При этом их можно вычислить двумя способами: с помощью найденной по формулам B.40), B.41) плотности вероятности рх(у) или путем усреднения g(X). Второй путь экономичнее, т?к как не требует определения плотности вероятности функции р, (у). На- Например, формулы для математического ожидания и дисперсии случайной ве- величины У = g(X) при этих способах соответственно имеют вид: ty , B.42) B.43) т„ = J g(x)Pi(x)dx, a;2= j" |g(x> — mv]2 p,l x) dx . Для дискретной случайной величины числовые характеристики находятся по формулам: 2 B.44) B.45) 2. ПРИМЕРЫ 2.1. По одной и той же стартовой позиции противника произ- производится пуск пяти ракет, причем вероятнссть р попадания в цель при каждом пуске равна 0,8. Построить: 1) ряд распределения числа попаданий; 2) много- многоугольник распределения; 3) функцию распределения Fx(x) числа попаданий. Решение. Случайная величина X (число попаданий в цель) может принять следующие значения: х0 = 0, х1 = 1, х2 = 2, хз = 3, л:4 = 4, хь = 5. Эти значения случайная величина X при- принимает с вероятностями р0, ри /?2, р3, pt, ръ, которые в соответствии с формулой A.22) равны: р0 = A _ р)ь = 0,2s=0,00032, Pi = — Pf = 5-0,8-0,24=0,0064, — рK=10-0,82-0,23 = 0,0512, —pf = 10.0,83-0,22=0,2048, A — />)=5-0,844-0,2=0,4096, рь = ръ = 0,85=0,32768. Из вычисленных значений рь i = 0, 1, 2, 3, 4, 5, видно, что наиболее вероятно попадание в цель четырьмя ракетами, в то вре- время как промах всеми ракетами маловероятен. 56 Рис. 2.4. Многоугольник распределения Рис. 2.5. График функции распределения случайной величины 1. Ряд распределения имеет следующий вид xt Pi 0 0,00032 1 0,00640 0,05120 3 0,20480 4 0,40960 5 0,32768 2. В соответствии с рядом распределения вероятностей числа попаданий в цель построен многоугольник распределения, представ ленный на рис. 2.4. 3. По определению, функция распределения Ft(x) = P(X<x)= При х < 0 Fx{x) = Р(Х < х) = 0, при 0 < х < 1 Fi(x) = Р(Х = х0 = 0)=0,00032, при 1 < ж < 2 Fx(x) = Р(Х = 0) + Р(Х = 1)=0,00032+ + 0,00640=0,00672, при 2 < х < 3 Fi{x) = 2 Р(Х = xt) = 0,05792, ( = 0 при 3 < х < 4 F,(x) = 2 Р(Х = xt)=0,26272, при 4 < дс < 5 Fx{x) = 2 Р(Х = Х;)=0,67232 , 2 2 График функции распределения представлен на рис. 2.5. 2.2. Плотность вероятности /?1 (х) случайной величины X имеет вид рг(х) = а ехр (—р U |), —со < ж < оо, где аир — постоянные величины. 57
Требуется: 1) найти соотношение, которому должны удовлетво- удовлетворять постоянные а и Р; 2) вычислить функцию распределения Ft (x) случайной величины X; 3) построить графики плотности вероятно- вероятности pi{x) и функции распределения F^x) при Р = 2. Решение. 1. Чтобы найти соотношение между постоянными а и р, воспользуемся условием нормировки для плотности вероят- вероятности. При этом учтем, что плотность вероятности имеет разные аналитические выражения при х < 0 и х > 0: J Pl(x)dx = a je-B|"dx = a[ J ep< dx + ] e~9t dx\ =-^ == 1. — oo — oo L— °° 0 J Следовательно, P = 2a. 2. Функция распределения F^x), по определению, равна: При л; < О При х Fjix) = 3. При >0 P=2 X аГе-Рг Q Pi(*) = « F ^y*l — riW — ¦ dz >—2 |0, A 1 ~ ~2~" ,5e2* -0,5e — 2л: 1 2 при при Графики pjix) и F^x) при р = 2 изображены на рис. 2.6. 2.3. Функция распределения F^x) случайной величины X за- задана графиком (рис. 2.7). -1,5 -0,5 0 0,5 1,5 х й) 0,6 У - 1 1 1 -1,5 -0,5 0 0,5 1,5л S) Рис. 2.6. Плотность вероятности (а) и функция распределения (б) непрерыв- непрерывной случайной величины 58 1 х Рис. 2.7. Функция рас- Рис. 2.8. Плотность ве- Рис. 2.9. Функция рас- распределения роятности пределения Требуется: 1) найти аналитическое выражение для функции распределения; 2) построить график плотности вероятности р1 (х); 3) определить вероятность Р того, что величина X примет значение от 3,5 до 4,5. Решение. I. Когда значения величины X заключены в пределах от 3 до 5, функция распределения Fx {x) представляет собой отрезок прямой, проходящей через две точки с координатами C, 0) и E, 1) Используя уравнение прямой в виде(л;—х1)/(х2—xt) = (у—У\I(У*- — ух), получаем (х — 3)/E—3) = F^x)/!, т. е. Ft(x) = (х — 3)/2 Следовательно, fO при х^.3, | (л:—3)/2 при 3<л;<5, 1 при х>Ъ. 2. По определению, рх(х) — dFi(x)/dx. Поэтому 0 при х^З, рг(х) = 1/2 при 3<x<5, 0 при х>5. График плотности вероятности рг (х) представлен на рис. 2.8. 3. Р = Р C,5 < X < 4,5) = Fx D,5) - Fx C,5) = D,5—3)/2 - — C,5—3)/2=0,5. 2.4. Случайная величина X удовлетворяет неравенству —1 <; ^ X ^ 1, причем в интервале от —1 до +1 она распределена рав- равномерно, а каждое из значений—1 и +1 принимает с вероят- вероятностью 1/4. Необходимо: 1) найти и построить функцию распределения Fj (х) случайной величины X; 2) вычислить вероятность Р того, что случайная величина X попадет в интервал от —1/2 до +1/2 Решение: По условию, X — случайная величина смешанного типа. I. При х < — 1 Fdx) = Р(Х < х) = 0. При — 1 < х < 1 — 1 59
При х > 1 График функции распределения Fx {x) приведен на рис. 2.9. 2 — 0,5 1 2.5. Случайные ошибки измерения дальности до неподвижной цели подчинены гауссовскому закону с математическим ожиданием т = 5 и средним квадратическим отклонением а = Юм. Определить вероятность того, что: а) измеренное значение даль- дальности отклонится от истинного не более чем на 15 м; б) при трех не- независимых измерениях ошибка хотя бы одного измерения не прев- превзойдет по абсолютной величине 15 м. Решение, а) Определение вероятности того, что измеренное зна- значение дальности отклонится от истинного не более чем на 15 м, сводится к вычислению вероятности попадания случайной величи- величины X (ошибки измерения) ст = 5мио=10мна интервал от —15 до 15 м. Используя формулу B.8) и значения Ф(г) из приложения II, получаем: a) P1 = P(|X|<15) = P(-15<X<15)= = 0,8413 — 1 + 0,97725 « 0,82. б) Вероятность Р2 того, что при трех независимых измерениях ошибка хотя бы одного измерения не превзойдет по абсолютной ве- величине 15 м, определится по формуле Р2 = 1—A - Pi)8 = 1—A —0,82K « 0,994. 2.6. Производится стрельба по подвижной цели до первого по- попадания. Вероятность р попадания при каждом выстреле равна 0,4. На стрельбу отпущено 4 снаряда. Вычислить: 1) математическое ожидание тх случайной величины X — числа израсходованных снарядов; 2) дисперсию а| и среднее квадратическое значение ах величины X. Решение. Случайная величина X может принять следующие значения: хх = 1, *2 = 2, х3 = 3, х4 = 4. Вероятности принятия величиной этих значений соответственно равны: Р(Х = l) = Pl = p = 0,4, P(X = 2) = pt = (l-p)p = = 0,6 • 0,4 = 0,24, Р(Х = 3) = р3 = A— рJ р = 0,62 • 0,4=0,144, Р(Х = 4) = Pi = A — pfp + A —рУ = 0,63-0,4+0,64 =0,216. 60 1. По определению математического ожидания, имеем п 4 тх= 2 xtPt= 2 xiPi= 1-0,4+ 2-0,24 +3-0,144+ 4-0,216 ~ 2,2. 2. Для дисперсии получим C-2,2J-0,144+D -2,2J-0,216~1,38; о1=Кп38^ 1,17. 2.7. Случайная величина X имеет распределение Лапласа, плотность вероятности pt(x) которого Найти математическое ожидание и дисперсию величины X. Решение: Математическое ожидание определяем по формуле B.13): т. С Я С J Х Х~ 2 J |Так как плотность вероятности pi(x) имеет разные аналитические ^выражения при х < 0 и х > 0, то 0 оо А, С К С Шх~~ J Xe Х+~)Хе — оо о Сделав в первом интеграле замену переменных х = — у, получим 2j*e d«- 2jee о ¦ о оо *• Г », j I ул — Ла /7 у 2 J Х& UX' Следовательно, тх = 0. Тогда О оо С j А, Г ЯГ — оо — ос О оо оо оо 61
Известно [171, что ап+л B.46) Следовательно, el = А,ГC)М,3 = 211?. 2.8. По каналу связи с помехами передается кодовая комбина- комбинация, состоящая из двух импульсов. В результате независимого воз- воздействия помехи на эти импульсы каждый из них может быть подавлен с вероятностью р. Определить характеристическую функцию в1(/Ъ) случайной величины X — числа подавленных помехами импульсов. Решение.Возможные значения дискретной случайной величины X: хх = 0, х2 = 1, *3 = 2- Вероятности рг этих значений соответст- соответственно равны: Pi = A — pf, p2 = 2рA — р), р3 = р2. Согласно формуле B.35) имеем вЛ/Ъ) = J р,е""« = A — рJ + 2рA - р) ef° = 1 — 2р + р2 + 2ре^ — 2pV + pV» = = l+2p(eft — 1) + р*(е/" — IJ = [1 + р(с'» — 1)|2. 2.9. Случайная величина X имеет равномерную плотность ве- вероятности в интервале от —§/2 до E/2. Определить характеристическую функцию в1(/и) случайной величины X и нарисовать ее график. Решение. По условию нормировки, рх (х) ф/2 + Р/2) = 1. Следовательно, рх(х) = 1/E. Тогда °» 3/2 = Г e'vxpl(x)dx=— Г e'«dx = — J P J IP» -оо -Р/2 _ sin (оР/2) Графики плотности вероятности рг(х) и соответствующей ей харак- характеристической функции ®x{jv) приведены на рис. 2.10. Р,№) /3 О ?_ х " г г Рис. 2.10. Равномерная плотность вероятности (а) и соответствующая ей характеристическая функция (б) 62 2.10. Найти плотность вероятности рг (х) случайной величины X, характеристическая функция которой имеет вид 0i (/») = 1/A +v2). Решение. Согласно формуле B.36) имеем о оо 2л J 2л J 1 + у2 — оо —оо оо оо = —!_ Г cosox—I s'm ox dv _ _J_ C cos vx du _ 2л J l+o2 2л J 1+a2 — GO —OO Ц sinvx_dv^ J_? J 2л J l + o2 я J l так как оо cos ax +o2 , л , dx = —e~ l 2 2.11. Случайная величина Х подчинена х2"Распределению. плотность вероятности которого имеет вид 'xn/2-l е-х,2 Ппи х>0, Я>0, Pi(x)={ 2"/2Г(п/2) I 0 при Вычислить характеристическую функцию @х (jv) и начальные моменты тъ величины X. Решение. Так как плотность вероятности отлична от нуля толь- только при х > 0, то 2"/2Г(п/2) оо • (V/2-1 Воспользовавшись интегралом B.46), получим ел(ю) = ! гс/2-i+i) =A _ т-*г* 1A ' 2"/2Г(п/2) (l/2-jv)n'2-l + l ( ' ' Начальные моменты mk связаны с характеристической функцией соотношением B.37): 1 dk 0j (/ h jk do* 63
В нашем случае dv =/я A-2/0)-""-', = ;-4 n {n +2)(n - 6) A - 2fe —2)A -2/p)-""- Таким образом, mft = и(« + 2)(rc + 4)...(/г + 2й — 2). 2.12. Случайная величина У является линейной функцией слу- случайной величины X: Y = g(X) = аХ + Ь, где а и b — постоянные величины. Найти плотность вероятности рг (у) величины Y при известной плотности вероятности рг(х) случайной величины X. Решение. Так как обратная функция х = h(y) = (у — ЬIа од- однозначна, то, подставляя ее выражение в B.40), получаем Pi (У) = I a ¦Р\ У-Ь Если, например, величина X имеет равномерную плотность вероятности в интервале (хх, л;2),то величина Y будет распределена равномерно в интервале (ахх + Ь, ах2 + Ь). Когда величина X имеет нормальную плотность вероятности (х~тJ 2а2 то ее линейная функция также распределена по нормальному за- закону где ти = am + b, oy — \a\o. Таким образом, при линейном преобразовании случайной вели- величины ее плотность вероятности смещается на величину Ь, а масшта- масштабы вдоль координатных осей изменяются в а раз. 2.13. Случайная величина Неравномерной плотностью вероят- вероятности (рис. 2.11) рг(х) = 1/F + а), — а < х < b, a < Ь, подвергается квадратичному преобразованию Y = X2. 64 1,0 0,5 -а а -а О а д Рис. 2.11 Плотность Рис. 2.12 Функция рае- вероятности случаи- пределения случайной ной величины X величины X. О х) а х Рис. 2.13. Квадратич- Квадратичное преобразование Определить и построить: 1) функцию распределения F1(x) слу- чайной величины X; 2) функцию распределения F1(y) и плотность вероятности р, (у) случайной величины Y. Решение. 1. По определению, При х < — a при —а < х Fx (х) = Р (X < — а) = О, 6 при х > b Fx (x) = 1. График функции распределения Fx (x) приведен на рис. 2.12. 2. При квадратичном преобразовании у = х2 (рис. 2.13) функ- функция у никогда не принимает отрицательных значений. Поэтому Fx(y) = P(Y<y) = 0 при */<0. На интервале (—а, а) обратная функция x = h(y) — двуз- двузначна (рис. 2.13): хх = ft, (у) = 4- У у, х2 = ft2 (у) = — У у. Событие Y < у равносильно попаданию случайной величины X в интервал (— У у, У у), т. е. P{Y<y) = Р(х2< X = Р(Х< Следовательно, при 0 <; у < а2 -Y'u Xl) = Р (—УТ < * - р (х < - V7). — д; i+ Ь+а Зак. 1203 65
1,0 0,6 ьг у Используя формулы B.44) и B.45), получаем О а Ьг у Рис. 2.14. Функция рас- распределения случайной величины Y = X2 Рис. 2.15. Плотность ве- вероятности величины У Х2 На интервале (а, Ь) обратная функция дс2 = hz{y) = ]/y одно- однозначна. Поэтому Ft(y) = P (Y <у) = Р( -а < А' < а) 4-Р(а< X sSFl/) = Y'y 2а +Г b+a J а Таким образом, F ( ) = 1 г(х)йх 0 Wy!(l (Уу + 1 . 2а , Ь+Q ^ j+a) C//(О+ C) Зоспользовавшись формулой B.3) п. (ц\ = 1/F+ 1/2F 0 a)Vy + a)Vy 0 l b-\-a Кг/ V.v+° ft+o при (/ < 0, при 0< у-^. а2, при a2<Zy ^ Ь2, при у>Ь2. , получим при у^О, при 0 <# ^ а2, при а2 <С у ^ Ьг, при г/ > Графики функций /ч(#) и Pi(#) представлены на рис.2.14 и 2.15. Отметим, что такое преобразование имеет место, например, в двух- полупериодном квадратичном детекторе. 2.14. Случайная величина X описывается биномиальным зако- законом распределения вероятностей. Найти математическое ожидание тч и дисперсию а? случайной величины У = еаХ. Решение. Случайная величина X может принимать значения 0, 1, 2, ..., п. Вероятность Рп (k) того, что она примет значение k, определяется выражением A.22): Рп I*) = Спркдп~к, q=\—p. 66 = (9 + ре»)», fe=O 2.15. Случайная величина Х подчинена равномерному закону в интервале от 0 до 2. Определить математическое ожидание и дисперсию величины Y = 6Х2. . Решение. На основании B.43) имеем О -64 = 51,2. 3. ЗАДАЧИ И ОТВЕТЫ 2.1. По двоичному каналу связи с помехами передаются две циф- цифры; 1 и 0. Априорные вероятности передачи этих цифр равны РA) = Р @) = 1/2. Из-за наличия помех возможны искажения. Ве- Вероятности перехода единицы в единицу и нуля в нуль соответствен- соответственно равны: рA/1) = р, р @/0) = q. Определить закон распределения вероятностей случайной ве- величины X — однозначного числа, которое будет получено на прием- приемном конце в некоторый момент времени. Ответ: ч Pi 0 A-р + <?)/2 1 (!-<?+р)/2 2.2. Из десяти транзисторов, среди которых два бракованных, случайным образом выбраны два транзистора для проверки их параметров. Определить и построить: а) ряд распределения случайного чис- числа X бракованных транзисторов в выборке; б) функцию распре- распределения Fx (x) случайной величины X. 3* 67
Ответ: а) н Pi 0 1/45 1 16/45 2 28/45 о б) Ft(x) = и при х ^ 0 , 1/45 при 0<х<1 17/45 при 1 <*<2 1 при х>2. 2.3. Вероятность получения отметки цели на экране обзор- обзорного радиолокатора при одном обороте антенны равна р. Цель считается обнаруженной, если получено п отметок. Найти закон распределения случайной величины X — числа оборотов антенны радиолокатора. Ответ: P(k) = Р{Х = ft) = CnkZ\ р"(\ — pf~\ Л = n, n + 1, n + 2. 2.4. Последовательные ускоренные испытания приборов на на- надежность производятся до первого отказа, после чего они прекра- прекращаются. Пользуясь понятием плотности вероятности для дискрет- дискретной случайной величины, найти плотность вероятности рх (х) слу- случайной величины X — числа испытанных приборов, если вероят- вероятность отказа для каждого прибора равна 0,5. Ответ [4]: со ) = У 2~'8(х—хг). '= '. 2.5. Функция распределения Fx(x) случайной ррчт задана графиком (рис. 2.16, а). Требуется: 1) найти аналитическое выражение для fr\(x); 2) построить график плотности вероятности р1(х); 3) определить вероятность того, что величина X примет значение, заключенное на интервале от 0,2 до 0,8. 1,0 0,5 L 7 1 Л I I I I 2 3 х а) 0,5 6 t 1 II 2 3 х б) Рис. 2.16. Функция распределения (а) и плотность вероятности (б) 68 I Ответ: 0 при х ^ О, д:/2 при О < х < I, 1/2 при I — 1)/2при 2 1 при л;>3. 2. График плотности вероятности рх(х) приведен на рис. 2.16,6. 3. 0,3. 2.6. Случайная величина X имеет нормальное распределение с параметрами /пт = 3, ах = 2. Как изменится плотность вероятности рх{х), если параметры примут значения тх = — 3, ох — 4? 2.7. Сообщение передается последовательностью амплитудно- модулированных импульсов с заданным шагом квантования А (А — наименьшая разность между двумя импульсами). На сообщение на- накладываются шумы, распределенные по нормальному закону с плотностью вероятности Pi (х) = —1—- # а/2л Если мгновенное значение шумов превышает половину шага кванто- квантования, то при передаче сообщения возникает ошибка. Определить, при каком минимально допустимом шаге кванто- . вания вероятность ошибки из-за шумов не превысит 0,1. Ответ: А = 3,4 а. 2.8. Случайная величина X — ошибка измерительного прибора распределена по нормальному закону с дисперсией 16 мВ2. Систе- Систематическая ошибка прибора отсутствует. Вычислить вероятность того, что в пяти независимых измерениях ошибка X: а) превзойдет по модулю 6 мВ не более трех раз; б) хотя бы один раз окажется в интервале 0,5 мВ —¦ 3,5 мВ. Ответ: а) 0,999; б) 0,776. 2.9. На электронное реле воздействует случайное напряжение с релеевской плотностью вероятности Pi(x)= ^-e-**>*°\x>0. а2 г Какова вероятность Р срабатывания схемы, если электронное греле срабатывает всякий раз, когда напряжение на его входе превышает 2 В? Ответ: Р =е~2/°г. !-. • 2.10. Определить математическое ожидание тх и дисперсию о\ числа приборов X, имевших отказы за время испытаний на надеж- ; ность, если испытанию подвергается один прибор, а вероятность его отказа равна q. Ответ: тх = q, о% = q{\ — q). 69
2.11. Стрельба ведется по наблюдаемой цели. Вероятность по- попадания при одном выстреле равна 0,5 и от выстрела к выстрелу не меняется. Вычислить математическое ожидание тх и дисперсию о\ слу- случайной величины X — числа попаданий в цель при пяти выст- выстрелах. Ответ: тх = 2,5; о\ = 1,25. 2.12. На вход ограничителя воздействует видеоимпульс со слу- случайной амплитудой. Вероятность превышения импульсом уровня ограничения равна р. Рассматривая событие превышения уровня ограничения импульсом как случайную величину X, принимающую значения 1 (превышение) и 0 (непревышение), определить среднее значение и дисперсию величины X. Найти среднее значение и дис- дисперсию числа Y импульсов, превысивших порог, при подаче на вход ограничителя п импульсов. Ответ: тх = р, а| = р A — р), т„ = пр, о2у — пр(\ — р). 2.13. Вероятность отыскания малоразмерного объекта в задан- заданном районе в каждом вылете равна р. Определить математическое ожидание и дисперсию числа про- произведенных независимых вылетов, которые выполняются до пер- первого обнаружения цели. Ответ: т = 1/р, а2 = A — рIрг- 2.14. На радиомаяк-ответчик в среднем поступает 15 запросов в час. Считая число запросов случайной величиной, распределен- распределенной по закону Пуассона, определить вероятность того, что за 4 мин: а) поступит ровно 3 запроса; б) поступит хотя бы один запрос. Ответ: а) 0,0613; б) 0,632. 2.15. Изменение частоты X генератора из-за самопрогрева под- подчинено распределению, график которого изображен на рис. 2.17. Определить: 1) аналитические выражения для плотности вероят- вероятности pi(x) и функции распределения F, [х)\ 2) математическое ожидание т3 и среднее квадратическое значение ох случайной ве- величины X. 0 при х <! — а/2, Bх+а)/а2 при —а/2 < лг^а/2, 0 при х> а/2, @ при л:< —а/2,- Fi (х) = | \Bх + а)/2а]2 при — а/2 < х < а/2 , (l при х>а/2; 2. тх = а/6, ах = а/31/Т 2.16. Сообщение передается квантованными импульсами с ша- шагом квантования А = 1 В. Предполагая, что ошибка квантования равномерно распределена в пределах интервала квантования и имеет нулевое среднее значение, определить дисперсию ст2 (мощность) шума квантования. Ответ: а2 = 1/12 В2. 70 Рис. 2.17. Плотность вероятности Pi (Я), Ответ: 1. рх (х) == 'г I 2.17. При измерении напряжения гармонического колебания u(t) = A sin (ы( + ф) ламповым вольтметром, проградуированным в эффективных значениях, стрелка вольтметра из-за наличия помех равномерно колеблется между значениями аг и а2. Вычислить: 1) среднее значение та показаний вольтметра; 2) от- относительную погрешность А = аа!та измерения амплитуды напря- напряжения и (t), где аа — среднеквадратическое значение. Ответ: \) та = (а, + оа)/2; 2) А = (о, — о^/уТ (о, + ах). 2.18. Время безотказной работы самолетного радиоэлектронного оборудования в полете является случайной величиной, распреде- распределенной по экспоненциальному закону. Определить вероятность безотказной работы оборудования в течение десятичасового полета, если среднее время безотказной работы по статистическим данным составляет 200 ч. Ответ: 0,951. 2.19. Мгновенные значения амплитуды X принимаемого сигнала при замираниях описываются распределением Релея pl(x) =—е а2 °2, х>0. Вычислить среднее значение и дисперсию случайной величины X Ответ: тх = оУл/2, о* = ст2B — я/2). 2.20. Показать, что начальный факториальный момент четвер того порядка /И[4] случайной величины X связан с начальными моментами следующим соотношением: m[4 i= тА—6т3+ \\т2—6^. 2.21. Найти центральные т% и центральные абсолютные р? моменты случайной величины X, распределенной по гауссовскому закону Ответ: При начетном k m% — 0, 71 [ ak.
При четном k m'k=Pk= 1/ —crK^K я 2.22. Доказать, что если случайная величина X подчинена гам- гамма-распределению /ч ' хае-х'^, х>0, а> — 1, Й>0, то характеристическая функция величины X а начальные моменты вычисляются по формуле mh = Р*Г (fe + а + 1)/Г (а + 1). 2.23. Определить характеристическую функцию 6Х (/и) случай- случайной величины X, принимающей: 1) одно-единственное значение, рав- равное С; 2) с одинаковой вероятностью два значения, равные ± С. Ответ: lHj(/u) = е'с'с; 2) 0! (/у) = cos vC. 2.24. Показать, что распределение с характеристической функ- функцией 0Х (jv) = соз[яи/2A — и2)! обладает плотностью вероят- вероятности Pi (х) = 0,5 cos *, —я/2 < х < я/2. 2.25. Определить характеристическую функцию 0Х (jv) случайной величины X, плотность вероятности которой (Х—Г Ответ: Q1(jv)= exp\ jvm— v° . 2.26. Дискретная случайная величина X характеризуется рядом распределения *i Pi —2 0,1 | 0,2 0 0,3 1 0.3 о 0,1 Найти законы распределения случайных величин Y = X2 + |Х| у, pi 1 0,3 2 0,5 5 0,2 г* 0 0,3 1 0,5 2 0,2 72 2.27. Случайная величина X с плотностью вероятности 4 а2 подвергается преобразованию Y = alX. Определить плотность вероятности для случайной реличины У. Ответ: рг (у) = уе~у2/2, у ^ 0. 2.28. Случайная величина X распределена равномерно в интер- интервале (а, Ь): рх(х) = 1/F — a), 0<a<x<6. Определить плотность вероятности случайной величины Y = Хг и построить ее график. 2.29. Решить задачу 2.28 при условии, что р1 (х) = 1/F — а), а < х < 6 < 0. Ответ: Mf/) = 1/2. (a — b) V~y, b2 < у < a2. 2.30. Случайная величина X с плотностью вероятности Рх(х) подвергается преобразованию Y = | 1 — Х|. Найти плотность вероятности случайной величины Y Ответ: рх (у) = рх A — у) + рх A + у), у> 0. 2.31. Случайная величина X с нормальной плотностью вероят- вероятности поднер!агтся преобразованию 7 = X2. Определить плотность вероятности случайной величины Y. Ответ: рх (у)=\ а [0 2.32. Решить задачу 2.31, если 1 г рг (х) = -=- ехр — а ]А2я L Отв<?т: р, (г/) == 1^- ехр f — -^±^ 2.33. Ряд распределения случайной величины X имеет вид 2а- ch '¦Vv 0 0,2 1 0,5 2 0,3 73
Вычислить математическое ожидание и дисперсию случайной величины Y = 1—2Х2. Ответ: т9 = — 2,4, а2у = 9,63. 2.34. Случайная величина Ф равномерно распределена в интер- интервале от 0 до 2я. Вычислить математическое ожидание и дисперсию величины X = Л о cos2 (at + Ф), где и, t — неслучайные величины. Ответ: тх = AJ2, а\ = А\1Ъ. Продолжение Vm У>Р (xi. У)) / = 1 Pim P(*l) Ргт p{x2) Pim P(Xi) Pnm P(Xn) ... р(Ут) 3. ЗАКОНЫ РАСПРЕДЕЛЕНИЯ И ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ МНОГОМЕРНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ При исследовании радиотехнических устройств часто приходится иметь дело с совокупностью двух или большего числа случайных величин. Систему п случайных величин можно рассматривать как точку в n-мериом пространстве со случайными координатами Xt, Х2, ¦•-, Х„. Поэтому такую систему назы- называют n-мерной случайной величиной или n-мерным случайным вектором. При п = 2 двумерная случайная величина может рассматриваться как случайная точка на плоскости, а при п = 3 — как случайная точка в пространстве. Такая трактовка совокупности двух или трех случайных величин дает воз- возможность пользоваться наглядными геометрическими представлениями. Системы случайных величин могут быть дискретными, непрерывными и смешанными, в зависимости от типа случайных величин, образующих си- систему. Как и в случае одномерной случайной величины, полной вероятностной характеристикой многомерной случайной величины является закон распре- распределения—соотношение, устанавливающее связь между областями возможных значений многомерной случайной величины и вероятностями ее появления в этих областях. Закон распределения может быть задан в различных формах. Например, если X и Y — дискретные случайные величины, то закон распределения дву- двумерной случайной величины (X, К) задается в табличной форме У! У\ Уг ... У] XI Xl Р\\ Ри Pii х2 P'i2 P2j Di2 Pii Хп Pni Pn-j Pni n 2 p(xi, in) i= 1 РШ р(у%) Р(У1) 74 i Здесь 4m- ¦su- Pt} = Р (X = xh У = yf), i = 1,2 n, j = 1,2, .... m. При этом C-1) Если X и У независимы, то pij = piPj- Универсальной характеристикой многомерных случайных величин, пригодной для описания как дискретных, так и непрерывных случайных ве- величин, является функция распределения. В случае двумерной случайной ве- величины функция распределения F2 (к, у) есть вероятность одновременного выполнения двух неравенств X < х, У < у, рассматриваемая как функция переменных х, у: (х,у) = Р(Х<х, Y C.3) В геометрической интерпретации (рис. 3.1) функцию распределения F2 (x, у) можно трактовать как вероятность попадания случайной точки внутрь бесконечного левого нижнего квадранта с вершиной (х, у). В статистической радиотехнике основное практическое значение имеют системы непрерывных случайных величин, распределение которых обычно характеризуют не функцией распределения, а плотностью вероятности. Если функция распределения F2(x, у) непрерывна и обладает непрерыв- непрерывной смешанной производной второго порядка, то двумерная плотность вероят- вероятности определяется формулой р2 (х, у) = 2(x, уIдхду. C.4) Рис. 3.1. К определению функции распределе- распределения 75
Уг Уг О х Рис. 3.2. Прямоуголь- Прямоугольная область У Рис. 3.3. Совместная плотность вероятности двух случайных величин и область D Вместо плотности вероятности можно использовать двумерную характеристи- характеристическую функцию ] = j J e' ' *, y)dxdy. C-5) —оо —ос Аппарат характеристических функций особенно эффективен для исследова- исследования сумм взаимно независимых случайных величин. Функции F2 (х, у), рг(х, у) и в2 (/у,, iv-2) обладают следующими основными свойствами: 1. F2 (х, у)— неубывающая функция своих аргументов, i. e. F2(x2, у) > F2(xl, у), если х.г > хх , F2 (х, ц2) > F2 (x, j/O, если i/2 > ;/,. 2. F2 (х, — оо) = t\ (— оо, у) = F2 (— оо, — оо) = 0. C.6) 3. F2(x>, оо) = 1. C-7' 4. F2(x, oo)=Fl(x), F2(oo, y)=F,(//).. C-8) где Ft (x) и Fj ({/) — соответственно функции распределения случайных величин X и К. 5. F2(x,y)= j j р2 (и, v) dudv. C.9) 6. Вероятность Р (/?) попадания случайной точки (X, Y) в прямоуголь- прямоугольник R (рис. 3.2) со сторонами, параллельными осям Ох и Оу и с координатами вершин Л (*!, j/j), В (х2, yj, С(х2, у.г), D (xlt (/,> равна Р (/?) = Р (*i < X < х2, i/i < К у2) = i. г/г) — 7. 00 00 8. j 1 Рг(*. y)dxdy = 1 (условие нормировки). C.12) —оо —оо 9. Вероятность P(D) попадания случайной точки в произвольную область (рис. 3.3) определяется формулой Р(Р) (О) 76 где р2 (х, у) dxdij — элемент вероятности для системы двух случайных ве- величин. 10. в„@, 0) = 1. 11. Если X и К — независимые случайные величины с характеристиче- характеристическими функциями соответственно Ql (jv^ и 8Х (jv2), то ©г C-Й) Одномерные функции распределения и плотности вероятности выражают- выражаются через двумерные с помощью следующих соотношений: К оо ) = F2(x, оо) = J J , y)dxdy, —со У —со —оо Fi(y)=F2(oo, j/)= J J p2(x, y)dxdyt ОС оо \ =_ i ^ У > 1 ду J C.15) Pi ({/) Закон распределения системы двух случайных величин X, У определяется распределением каждой из величин, входящих в систему, и зависимостью между ними. Степень зависимости случайных величин X и К характеризуется условным законом распределения, под которым понимается закон распре- распределения одной из случайных величин, найденный при условии, что другая случайная величина приняла определенное значение. По теореме умножения законов распределения где Рг (*. У) = Pi (¦*) Pi (J/I*) = Pi (У) Pi My), Pl (y\x) = dFt (y\x)/dy, Pl (x\y) = d C.16) — условные плотности вероятностей. Для независимых случайных величин X и Y Ра (¦*, У) = Pi (*) Pi ({/)• C.17) Условие C.17) — необходимое и достаточное условие независимости случай- случайных величин. Выражения C.15) и C.16) позволяют получить соотношения, связываю- связывающие между собой условные и безусловные плотности вероятностей, а также формулу полной вероятности и формулу Байеса для непрерывных случайных величин: Pit У\ x)=- Pi Pi(X, У) Pi(y, Рг{х, у) C.18) 77
Pi 00 = J* P-2(x,y)dx= J" p1(x)p1(y\ x)dx — oo —oo Pi (x) Pi (У I *) Pi (* I «/) = C.19) C.20) Pi (^) Pi (У I Свойства 1 — 11 и формулы C.1)—C.20) обобщаются на многомерные слу- случайные величины [1, 13, 16]. Законы распределения являются исчерпывающими вероятностными ха- характеристиками многомерных случайных величин. Однако если система вклю- включает в себя более двух — трех случайных величин, то экспериментальное оп- определение ее законов распределения весьма затруднено, а проведение расчетов требует громоздких математических вычислений. Поэтому при исследовании систем случайных величин широкое применение нашли их числовые харак- характеристики, которые в определенной степени могут дать представление и о характере закона распределения. В основу получения таких числовых харак- характеристик положено понятие моментов. Различные моменты соответственно дискретных и непрерывных двумер- двумерных случайных величин определяются следующими формулами: 1. Начальный момент m^k, порядка ft, -\- k2: C.21) oo oo mki kz = j" j" x*1 yk* p2 (x, y) dxdy . —OO —OO 2. Центральный момент гшгхкг порядка kx -\- k2: тх)кЧу — ту)кг p2(x, y)dxdy. 3. Абсолютный начальный момент рь^ порядка ?, -f- k2: C.22) —OO —OO Pft.ft, = I I \x\k'\y\k'P-2(x, y)dxdy. —OO —00 4. Абсолютный центральный момент ps,fe2 порядка 6, -f fe2! C.23) Рм, = J J I *-m* I*' | y-my Ь Рг x,y) dxdy —OO —CO 5. Факториальный начальный момент /nrfe<1 C.24) ^t][k2\ п0РяДка =2 S V1 »}*'J p«. C.25) 6. Факториальный центральный момент m[k,] fft2] порядка k± + k2. =2 2 fe- = J J Из начальных моментов на практике наиболее часто используются на- начальные моменты первого порядка: =/И (Х)=тж, т0], = /И j C.27) которые являются математическими ожиданиями случайных величин X и Y, входящих в систему, и которые определяют координаты точки, называемой центром рассеивания системы на плоскости. Из центральных моментов наиболее употребительны моменты второго порядка. Два из них представляют собой дисперсии величин X и Y: Dx = mS0 = M [(X - mx)* (Y - myf) = M [(X - тжJ], C.28) Du = <2= M [(X - mxf (Y - mj,J] =M [{Y - my)'], характеризующие рассеивание случайной точки в направлении осей Ох и Оу. Среди смешанных моментов особую роль играет центральный смешанный момент второго порядка mj, = Kxy, называемый корреляционным моментом (иногда — моментом связи) случайных величин X, К: C.29) C.30a) '„) = /И l(X-mx)(Y -my)]. Для дискретных случайных величин 1х) (Уг—Щ) Pi] , где а для непрерывных P;,=P(X=Xi, Y=Vf), — mx)(y—my)p2(x,y)dxdy. C.306) — OO —OO 78 Корреляционный момент Кху описывает, помимо рассеивания величин X и К, еще и связь между ними. Часто вместо Кху пользуются безразмерной ве- величиной— коэффициентом корреляции Rxy: Rxy = Kxy/oxay, C.31) где ах, ау — средние квадратические значения величин X и К. Коэффициент корреляции Rxy удовлетворяет условию: —1 < Rxy < 1 и определяет линейную вероятностную зависимость между случайными величинами. Если X и К независимы, то Кху = 0 и Rxy = 0. Две случайные вели- величины, для которых коэффициент корреляции равен нулю, называются некор- некоррелированными. Независимые величины всегда не коррелированы. Зависи- Зависимые величины могут быть как коррелированными, так и некоррелированны- некоррелированными. Для гауссовских случайных величин некоррелированность означает также и независимость. В некоторых случаях используются условные моменты случайной вели- величины X относительной. Для условных математического ожидании и диспер- 79
сии случайной величины А относительно Y формулы соответственно имеют вид М (X \у) -J *Рх (* \ У) dx = хр2{х, у) dx j' P2(x,y)dx — CO C.32) D(X\y) CO М(Х\ i/)]2 ол Основными числовыми характеристиками системы п случайных величин являются математические ожидания и дисперсии: М (Х) C.33) D(Xh)=M{[Xh— M(Xk)]'}, ft=l, с ..., n а также корреляционные моменты или коэффициенты корреляции *„х. ={lXi-M(Xi)\ [Xj-M(Xj)]}, , Ф j, Для удобства корреляционные моменты и коэффициенты корреляции часто записываются в виде корреляционной матрицы и нормированной корре- корреляционной матрицы: К. , Кг ,. ...Кг„ Во многих задачах статистической радиотехники требуется определить вероятностные характеристики одной системы случайных величин по задан- заданным вероятностным характеристикам другой системы, связанной с первой функциональной зависимостью. Пусть две случайные величины Yf и Y 2 заданы выражениями =gilXx, X,), „ А'2) C.34) где gl и g2 — заданные детерминированные функции. Треб й ф g2 д рр фу ребуется найти совместную функцию распределения F2(yt, y2) и'совме- стную плотность вероятности р2(ух, У2) случайных величин Yx и Y2 по извест- известной плотности вероятности р2 (хх, х2) случайных величин Хх и Хг. Так как F2 («/1. г/2) = Р (Ух Ь У-2 < Уг) = то = JJ Рг (*i. C.35) LJ Область интегрирования D определяется неравенствами gi (xt, x2) < «/*' 8t(xi, x2) < у2. Плотность вероятности р2 (у1з у2) получается путем диффе- дифференцирования F2 (г/i, у2)' Рг(г/1. г/г) =c>2F2 (г/i. У2Iдухду2. C.36) 80 где Если необходимо найти /з2 (</!, i/г) без предварительного определения i/i. </гЬ то ПРИ однозначных обратных функциях Л\ = Лх (F1? Y2), = Л2 (Fx, Y.2) имеем . г/2) =р2 [^i (г/i, г/2). ^2 (гл. г/2I1?>21. C-37) D, = , г/г) dh2fdy2 I 9 (Ух, г/г) i, хг) C.38) — якобиан преобразования от случайных величин Хх, Х2 к величинам Yx, Y2 В тех случаях, когда обратные функции /г(- неоднозначны, в правой части C.37) следует взять сумму по каждой из подобластей. Результаты C.34)—C.38) можно распространить на функцональные пре- преобразования многомерных случайных величин. Часто требуется найти плотность вероятности функции двух случайных величин Хх н Х2 по известной совместной плотности вероятности рг (хх, х2)'- Y = Ух = gx (Хх, Х2) = g (А",, Х2), Y2 = g2 (Хъ X,) = Х2 (или Хх). При однозначной обратной функции Xl=hl(Yl, У2)=Н(У, Y2) к такому преобразованию можно применить формулу C.37). В данном случае якобиан преобразования dh(y, г/г) dh(y,y2) ду ду2 - О 1 Тогда формула C.37) примет вид д/г(г/. г/г) ог(у, г/2)=р2[й (г/, г/г), г/г] dh(y, г/г) C.39) Проинтегрировав C.39) по у2, получим плотность вероятности для Y: dh(y, y2) Г Г Р\ (У) = ] p2i«/i, г/2>йг/г= \ Рг [^ (г/, г/г), г/г] C.40) Формула C.40) позволяет найти плотность вероятности суммы, разности, произведения и частного двух случайных величин: 2--= J р2(г/ х> Рх(у)= j* Рг(у—х2, —00 ОО Рх(У)= j* Рг(г/ + *г. J —°° —оо ОО Р1(г/)= Рг (-^- , х2) J \ х2 I \х — г/, xx)dxx, , C-41) Хг, C.42) 00 = 00 = j P2 I "^- , ДГ1) -^7- J \ г/ Л г/2 81 C.43) C.44)
Для независимых случайных величин Хх и Х2 с плотностями вероят- вероятностей Pl(Xl) и Pl(x2) рг(хи х2) = Pi (х{) P! (х2) и формулы C.41) —C.44) принимают вид ОО №(«/)= J Pi(y—X2)pi 00 J pi(j/— Pi(y = J ft —oo oo J Pi(*i—#)Pi -oo oo Г l у \ = ft —- ft(*2> J \ X2 / , Y = X1—X2, C.45) C.46) C.47) ft («/) oo -J ft = -?". C-48) Особое практическое значение имеет задача отыскания плотности ве- вероятности суммы независимых случайных величин по известным плотностям вероятности слагаемых (композиция законов распределения). Эта задача ре- решается с помощью формулы C 45). Однако если число слагаемых больше двух, то вычисление интегралов свертки значительно усложняется; поэтому при л > 2 пользуются аппаратом характеристических функций. Сначала находят характеристическую функцию Qn(j v) суммы независимых случайных величин Y Х + Х + + Х рру Y = Хх + Х2 + х 2 „ р ских функций отдельных слагаемых: у у Х„, которая равна произведению характеристиче- характеристиче= П (/о). а затем из обратного преобразования Фурье I Рп У) =¦ 2л г <--^®п (fv)rtv C.49) C.50) находят плотность вероятности величины У. Числовые характеристики функций Zt, Z2 системы двух случайных ве- величин X, У : Zf = g\ {X У), Z2 = g2 (X, У) можно найти, не производя пре- предварительного определения плотности вероятности р2 (zlt z2), а непосредствен- непосредственно используя совместную плотность вероятности р2 (х, у) случайных величин X и К. В этом случае математическое ожидание mZk = M (Z^), дисперсия 82 D (Zfr) и корреляционный момент Кг г для дискретных и непрерывных слу- случайных величин определяются соответственно выражениями: « I oo oo D(Zh)= SSlSdft,»)! - m, J»pi; ft j j o«v. 3,nr, y)dxdy, OO OO DBft)= J J [gk (*.?>-!; C.51) C.52) C.53) где /г = 1,2; л:;, г/, — возможные значения случайных величин X и К; pij — веооятности совместного появления этих значений. Частными случаями формул C.51)—C.53) являются следующие соотно- соотношения для основных числовых характеристик случайных величин (основные свойства числовых характеристик): 1. Если С— неслучайная величина, то М (С) = С, М (СХ) = СМ (X). 2. Для любых случайных величин X и К М (X ± Y) = М(Х)±М (Y). 3. Математическое ожидание линейной функции 2 °t ^ +b где п(, Ь — неслучайные коэффициенты, 4. Для любых X и У ь = 2 «I / /=1 C.54) C.55> р. 56) Кху C-57) C.58) C.59) М (XY) = М (X) М (К) + Если X и К не коррелированы (Кхг, = 0), то М (XY) == М (X) Ж (Y). 5. Если С — неслучайная величина, то ' D (С) = 0. () 6. Неслучайную величину С можно выносить за знак дисперсии, возводя ее в квадрат: D (СХ) = CD (X), а (СХ) ¦= \С\а (X). C.60) 7. Для любых случайных величин X и Y D(X ±Y)= D(X) + D (Y) ± 2KXV. C.61) Дисперсия суммы (разности) некоррелированных случайных величин (Кху == 0) равна сумме их дисперсий: D (X ± Y) = D (X) + О (К). C.62) 83
8. Дисперсия линейной функции 2 ai Xi + * определяется формулой 1 \I= 'I / 1=1 !</ Если все величины Xlt X2, ..., Хп — не коррелированы, то 2 C.63) C.64) 9. Для независимых случайных величин X и Y дисперсия их произве- произведения D(XY) =» D(X) D(Y) + m\D(Y) + rnf,D (X). C.65> 2. ПРИМЕРЫ 3.1. Дискретная двумерная случайная величина (X, Y) опи- описывается законом распределения вероятностей, заданного табли- таблицей «1 У2 Уз х, 0,10 0,15 0,20 0,15 0 25 0,15 Определить: 1) законы распределения составляющих X и У; 2) условный закон распределения случайной величины X при ус- условии, что У приняла значение уи и случайной величины У при ус- условии, что X приняла значение х2. Решение. 1. Для определения безусловных законов распреде- распределения случайных величин X и Y воспользуемся формулой C.2): Р (xi) = г/;) = р (xlt уг) + р (xlt у2) + р (хъ уз) = = 0,10 + 0,15 + 0,20=0,45, з р (х2) = 2/7 (х2, у}) = 2, t/j) + р (х2, у2) + р (хг, уз) = = 0,15+0,25+0,15=0,55. Таким образом, закон распределения случайной величины X в табличной форме имеет вид Xi Р (Xi) Xl 0,45 Xi 0,55 Для величины Y по аналогии получим = 2^р(х1, у,) = р(хъ ух) + р(х2, У1) = 0,10+0,15 = 0,25. РУ = Р(хг, у2) + р(хг, yt) = 0,15+0,25=0,40, р(у3) = p(xv уя) + р(х2, у») = 0,20+0,15=0,35. У, Р(У1) V, 0,25 V.. 0,40 Уз 0,35 2. Условный закон распределения случайной величины X при Y — у1 определяется совокупностью условных вероятностей P(xi\yi), р(хг\У1>, которые по теореме умножения вероятностей равны: />(*!,(,!) ___ 0,10 _ 2 , . Р(Х2,У1) __ I Ух) = 0,15 0,25 Следовательно, искомый закон в табличной форме имеет вид Р (xi\yi) Xl 2/5 Xl 3/5 По аналогии находим условный закон распределения величины У при X = х2: о(хг) 0,55 11 ' Р (xi, У-г) 0,25 5 р(х2) ~ 0,55 "~ТГ' х-)г= Р(х2,Уз) _ 0,15 _^ 3 0,55 11 Следовательно, можно записать У1 3/11 У* 5/11 Уз 3/11 84 85
Для контроля воспользуемся условием нормировки 2 р(х,) =0,45 +0,55=1, J] /7(г/7.) =0,25 + 0,40 +0,35 = 1, 2 '= 1 / = I 3.2. Вычислить и построить двумерную функцию распределения F2 (x, у) независимых дискретных случайных величин X и Y, если случайная величина X принимает три возможных значения 0, 1, 3 с вероятностями 1/2, 2/8 и 1/8, a Y — два возможных значения 0 и 1 с вероятностями 1/3 и 2/3. Решение. По определению, F2 (x,y)=P(X<x,Y<y)~'Z 2 Р (Х=х„ Y =*/,.), < < где 1=0, 1, 3, / = 0, 1. Так как по условию случайные величины X и Y независимы, то 2 Уj< У При х ^ 0 Р (X < х) = 0. Следовательно, в этом случае при любом Y из области его возможных значений F2 (x, у) = 0. Аналогично при у^.0 Р (Y <С у) = 0. Поэтому при любом X из области его возможных значений F2 (х, у) = 0. При 0<х<1 иО<К1 Ft(x, y)= При 0 < л: < 1 и у > 1 При 1<х<ЗиО<г/<1 При 1<х<3и г/ > 1 При и 0<г/<1 86 Рис. 3.4. Двумерная функция распреде- распределения При л: > 3 и г/ > 1 График функции распределения F2 (х, у) представлен на рис.3.4. 3.3. Совместная плотность вероятности р2 (х, у) гауссовского распределения двумерной случайной величины (X,Y) имеет вид — ту) | где mx, my, ox, oy, Rxy — параметры распределения. Определить: 1) плотности вероятностей рх (х) и рх(у) случайных величин X и Y; 2) условные плотности вероятностей рх (у\х) и /?! (х | у) величин X и Y. Решение. 1. Согласно формуле C.15) имеем ОО J Производя замену переменных (х — тхIУ~2ах = и, (у — my)/'Vr2oy = v, получим exp {~ ехр (- Известно A7), что ОО __ Г ехр (—ра л;8 ± qx) dx = -^ —ОО 87 ехр
Воспользовавшись этим интегралом, найдем =—=— е- у 2я ат ИЛИ Pi (*) = -ехр — Таким образом, величина X подчинена гауссовскому чакону с параметрами тх и ах. Произведя аналогичные вычисления, получим 2. По формулам C.18) находим условные плотности вероят- вероятностей Pi (У I x) = 1 -ехр - X X Pi(x\y) = [y—my- Rxu-%-(x- mx)J\, х L--mx— Из этих выражений следует, что р, (у\х) и р, (.v|,v) представляют собой гауссовские плотности вероятности с параметрами' + /?эд -^- (x --от J, a,, i x = o,_ - Rly. ¦ 3.4. Случайная точка на плоскости распределена по закону, приведенному в таблице. п = -1 Уз = 1 *, = 0 0,10 0,15 0,20 0,15 0,25 0,15 88 Найти: 1) математические ожидания случайных величин X и Y; 2) дисперсии величин X и У; 3) условное математическое ожидание величины X при Y = уг, 4) корреляционный момент Кхи и коэффи- коэффициент корреляции Rxu. Решение. Предварительно определим необходимые законы распре- распределения. Сложив вероятности «по столбцам», получим вероятности возможных значений X: р(хг = 0)=0,45, р(х2 — 1)=0,55. За- Закон распределения величины X имеет вид: Xi Р (Xi) 0,45 0,55 Сложив вероятности «по строкам», аналогично ние величины Y: найдем распределе- Vi Р (У1) ' У1 = -1 0,25 0,40 0,35 Вычислим условные вероятности возможных значений X при У = f/з = I-' при У = р(«/„) 0,35 7 ^v 2|Уз; 0,35 7 Следовательно, можем записать в табличной форме Xi Р (xt | у3) дг,=О 4/7 ДГ2= 1 3/7 Воспользовавшись соответствующими определениями и найден- найденными законами, получим: « / 2 = 0-0,45+1-0,55 =0,55, .0,40+ 1-0,35=0,10; ?9
2. D(X)= 2 у ' = 1 = 2 x!p(Xi)—mx =00,45+ 1-0,55 -0,552 « 0,248, .'= i D(Y) = = 2 У*рШ~ ml = 1-0,25 +0-0,40 4-1 -0,35 —0,01 =0,59; /= i 3. 7W (А |уз=1) = 2 3 4. Kxv = 22 (*, — 1=1 /=i — my)p (xt, yf) = = (xj — m^Uf/j — mj p (дс„ г/j) + (г/2 — mv)p(xu y2) + + (Уз — m.y) P (*i. У»I + (*2 — mx)l(t/x — m,j)p (хг, г/j) + + {Уг — mu)p(x2, y2) + (уз — т„) р (хг, уз)I = = @—0,55)[(—1—0,10)-0,10+@—0,10H,15+ A—0,10)-0,201 + + A—0,55)-[(—1—0,10).0,15 + @—0,10). 0,25+ A—0,10)-0,15] = = _ 0,055. RxV = Kxy/OsPy = — 0,055/]/0,248 ]/бЖ« — 0,144. 3.5. Совместная плотность вероятности рг (х, у) двумерной слу- случайной величины (X, Y) имеет вид п 1х |.ч_ Рг (X, У) — 0, , у<0. Определить: 1. Математические ожидания тх и mv величии К и Y. 2. Дисперсии D (X) и D (Y) составляющих. Решение. Предварительно найдем плотности вероятности вели- величин X и Y: е~У dy = 2хе-*', х>0. , y)dx=2ye~y\ y>0. -= 2 { x2e~x' о ~x'dx. > f Так как I xn e~ajc* dx = tJ 2a ¦при ос>0, «> — 1, то яг,.— ? о 2-1-1 2. D(X)= \(х—mxfpx (x)dx^ \ x2 Pl(x) dx—ml n J 2 я D(K) = D(X) = 1 - я/4. 3.6. Известна совместная плотность вероятности р2 (х, у) слу- случайных величин Ху и Х2. Найти двумерную плотность вероятности р2(уи у2)случайных величин Y\ и Y2, если Yl = аХх + ЬХЪ Yг = сХ, + dA2, где а Ь, с, d — постоянные коэффициенты. Решение. Если определитель системы, составленный из коэффи- коэффициентов а, Ь, с, d, отличен от нуля, то система из двух линейных алгебраических уравнений и1 = ахх + Ьхъ у2 = ex, +dx2 имеет однозначное решение: j xy2, где коэффициенты Oj, Л,, с,, d, выражаются через а, Ь, с, d. В дан ном случае якобиан преобразования C.38) D,- дул/дх1 дух/дх ду2/дх, ду2/дх2 а Ь с d ad— be Следовательно, в соответствии с C.37) получим > У*) = . ¦ ¦ ¦ Ра (а, Ух +Ьг уг, сх г/х +dx y2) . , . . , Рг (а{ Ух \ аа—ос \ 3.7. Определить совместную плотность вероятности р2 (уи уг) случайных величин Yl и У2 при заданной совместной плотности вероятности P2(xv х^) случайных величин Хх и Хг, если Решение. При ух > 0 система из двух нелинейных алгебраиче- алгебраических уравнений Vx\ + х\ = уи Xl/xt = 90 91
имеет два решения: г<1> _ ,. ,. /1 I ,,2\—1/2 г'1) i_ ,.2\—I /2- Уг) > YB) __ A) Л2 2 В соответствии с C.38) якобиан преобразования D,=- ' '/1 d(yi, Уз) Применяя формулу C.37) для случая двузначного обратного преоб- преобразования, получаем У\ г, у2) = ГУ2 I У\Уг При г/i < 0 система не имеет вещественных решений н поэтому Р*(Уи У г) = 0. 3.8. Вычислить функцию распределения Fx (у) и плотность вероятности рг (у) случайной величины Y, если Y = min (Xu Х2) и известна совместная плотность вероятности р2 (х,, х«) случайных величин Хг и Х2- Решение. Y = min (Xlt X2) означает, что У __(Хи если Хх ^ Х2, ~ 1 Хг, если X, > Х2. Следовательно, для F, (у) можем записать 2 (хь л-2) dx, — оо . и —оо Л', \ dx, | р2(хи х2) —оо V, = j dxx j р2(хъ x2)dx2 — jj р.2(хъ хг) dx2 Ю ОО ОО / Г со хг 1х2 jj р2 (хх, х2) dxx — jj р2 (хъ х.2) dxx —оо —оо У X-i У (х) dxx — ^ dxx j p. —оо —оо = Л (У = *i) + /4 («/ = *2) —Ft(y=xlty= xt), 92 где = *i, У = хг)= ности - J dxx J p2(Xl, x2)dx.z + f dxz f p,^, x.2)dXl. -oo Продифференцировав Fx (у) по у, получим плотность вероят- + I oo x, J dx, j p2 (Xl, x2) dxA = [ p2 {y, X2) dx2 + Г p2 (Xx, y) dx1. При независимых Ах и Х2 р2 (хх, х2) = рх (х-^р-^ (х2). Поэтому формулы соответственно примут вид: Fi(y) = Fx(y = xx) + Fx{y = x2) — — Fx(y = хх) Fx(y = х2), Рх (г/) = dFx{y)ldy = Рх(у = хх) [1 — Fx(y = х2)] + 3.9. Получить формулу для плотности вероятности pt (у) слу- случайной величины V = | Xj ± Х21 при заданной совместной плот- плотности вероятности р2 (хх, хг) случайных величин Xj и X,. Решение. Рассмотрим предварительно вспомогательную слу- случайную величину X = Хх + Х2. В соответствии с C.41) и C.42) плотность вероятности рх (х) величины X имеет вид оо Pi (х) — I Рг (х Т х2, х2) dx2. —оо Интересующая нас величина У связана с величиной X равен- равенством У = | Х|. Так как для данного случая Pi (У) = S pj/ч {y)\\h[ (у)\ = рх(г/) + Pl(—y), у ^ О, то Pi (У) = Г р2 (У =F x2) x2) dx2 + f p2 (_« ~°° —оо 93 г. У
При независимых величинах Х1 и X, выражение для р, (у) примет вид Pi (У) = .) Pi (Xi)[pi (У + х2) + pi (—у ЯР х2)\ dx2. 3.10. Найти плотность вероятности р\ (у) случайной величины Y = A +к)а Лх/2 + A — X) ЬХ2/2, где Xj и X, — случайные величины с совместной плотностью ве- вероятности р2 (хъ х2); а и Ъ — постоянные величины; К — дискрет- дискретная случайная величина, принимающая значения + 1 и —1 с ве- вероятностями р и q = 1 — р. Решение. Из условия ясно, что — fa^i с [ЬХ2 с вероятностью р , вероятностью q= I —p. Поэтому условная плотность вероятности рг(у\хъ х2) определится выражением Pi(y\xi, х2) = р8(у — ахх) + q8(y — bx2). Безусловная плотность вероятности Pi (У) ~ J j Pi O/|*li Xz) P2 —oo —oo ОО ОС = I J IP6 (У — axx) + qb (y — 6; —оо —оо Выполнив интегрирование с дельта-функцией, окончательно получим Pi оо оо (У) = р -~ [ Pi(y\ а, х2) dx2 + q —х— Г рх (xj, г/1 b) dXl. Если случайные величины Ах и Х2 независимы, то формула упро- упрощается: Pi (У) = Р ~- Pi (У I a)+q -~ рх (у | Ь). З.П. Независимые случайные величины Хх и Х2 подчинены закону Пуассона с параметрами А.х и Х2 соответственно: е-Ч *=;U, i,... Определить закон распределения случайной величины V ¦= = Хг + Х2. Решение. Решим задачу двумя способами: 1) непосредственно используя законы распределения, 2) с помощью аппарата характе- характеристических функций. 1. Суммируя вероятности всех независимых исходов, благо- -приятствующих осуществлению события (Y = п), можно записать (л-й)! л1 л2 (л - я! (п - л! А2 л! я=О, 1, 2 А_Г_ у c*(^J\k- у "! Р' 2. Определим характеристические функции случайных величин , и Х2: 2P/Bfe J!il_p—^,_p—xt V ^1 e = exp ( - = ехр По аналогии имеем 6Хг (jv) = ехр [А,2 (е/0 — 1I. Тогда в соответствии с C.14) получим = ехр - 1)]. Таким образом, случайная величина Y также подчиняется за- закону Пуассона с параметром X = Хг + %2. Этот результат можно обобщить на сумму нескольких пуассоновских случайных величин. 3.12. Найти закон распределения случайной величины Y — — Хх — Х2, где независимые случайные величины Хх и Х2 под- подчинены закону Пуассона с параметрами %х и А,2 соответственно: =Л) =Ае-Ч * =0,1,2 95
Рис. З.5. Область интегрирования, определяю- определяющая F,(y) Решение. Суммируя вероятности всех независимых исходов, благоприятствующих появлению события (Y = п), можем записать + P(X1=n+l)P(X, = l)+... + P(Xl=n+k)P(X2=k)+... = Л1 = > — e~x- ——( 1лГ\— (У А1 (я + fe)! fe! Воспользовавшись представлением функции Бесселя п-го по- порядка от мнимого аргумента 1п (х) в виде ряда (л + fe)! fe! \ 2 ПОЛУЧИМ 7^), /2 =0, ± I, ± 2 , ... Приведенные вычисления справедливы только при п ^ 0. Од- Однако если повторить их для п < 0 и учесть равенство /_п (х) = = /л (л:), то придем к заключению, что полученное выражение остается справедливым и для отрицательных значений п. 3.13. Случайные величины Хх и Х2 независимы и равномерно распределены в интервале @, I). Вычислить функцию распределения Fx (у) и плотность вероят- вероятности р1 (у) случайной величины Y = XtX2. Решение. Областью интегрирования, которая определяет Ft (у), является заштрихованная область, изображенная на рис. 3.5: IS,) dXt= l ~ V 96 Следовательно, 0 при у ^ О, уA— \п у) при 0<.у ^\, 1 при у > 1. Дифференцируя /^ (г/) по у, получаем плотность вероятности 10 при У^О, — In у приО<г/<1, 0 при г/>1. 3.14. Двумерная случайная величина (X, Y) распределена по закону, приведенному в таблице 0,1 0,2 0 х.2=\ 0,2 0,3 0,2 Определить математическое ожидание М (Z) = тг и дисперсию (Z) = al случайной величины Z = 2 X + Y2. Решение. Используя формулу C.51), имеем: тг = 2 2 Bх, + y))pit = A /1 у\)рп + Bх2 + у\)рп )ры + 0,2+ + Bхг + у\)р1% + Bх2 + ^)ри + B*. + Bх2 + у\) р23 = B-0 + 1) 0,1 + B • +B-0+0H,2+B.1+0H,3+B-0+1H+B.1 Для определения D (Z) воспользуемся выражением C.52), при этом учтем, что D(Z) = M (Z2) - т\, М (Z2) = 2 2 Bдг, + W2)pf, = Bдг, + у») р„ + (=1 i=\ + Bх2 + у\) р2, + B*. + */D2 р„ + B х, + у;)р89 -ь + B*х + ^Jр18 + Bх2 + yl) р2я = I2 • 0,1+B • 1 + 1)* • 0,2+ + B • 1+0J • 0,3-!-B • 1-1J • 0,2 = 4,9, D(Z) = 4,9—1,9?= 1,29. Задачу можно решить, используя свойства C.54) и C.55). Од- Однако при этом следует предварительно определить по формулам C.2) законы распределения случайных величин X и Y. 1203 97
3.15. Найти математические ожидания, дисперсии и корреля- корреляционный момент случайных величин U и V по заданным аналогич- аналогичным характеристикам случайных величин X и Y, если U = аХ + bY, V = сХ + dY, где а, Ь, с, d — постоянные коэффициенты. Решение. На основании формул C.55), C.61), C.29) и C.57) имеем: М (U) = М (аХ + bY) = аМ (X) + ЬМ (Y), M(V) = М (сХ + dY) = сМ (X) + dM (К), D(U) = D (аХ + bY) = аЮ (X) + ЬЮ (Y) + 2КХ11 = = o2D (X) + 62D (Y) + 2ab Rxv oxav, D(V) = D (cX + dY) = c2D (X) + d2D (Y) + 2Kxy = = c2D (X) + d2D (Y) + 2cdRXH oxa,t, Kuv = M{W - M(U)\\V - M (V)\) = M(UV) — — Ж (U)M (V) = Ж [(аХ + 6K) (cX + dK)l - [aM (X)-h + bM (Y)] [cM (X) + dM (Y)] = acD (X) + bdD (Y) + + (be + ad) Kxy = acD (X) + bdD (Y) + Rxyaxay. Если X и Y независимы, то выражения для D(U), D (V) и К, упрощаются: ио D (U) = a2D (X) + ЬЮ (Y), D (V) = c*D (X) + d*D (К), Ки„ = acD (X) + bdD (Y). 3 ЗАДАЧИ И ОТВЕТЫ 3.1. Двоичный канал связи с помехами описывается совмест- совместными вероятностями р (xt, yj), i = j = 1,2, указанными в таблице Вычислить: 1) априорные вероятности p(xt) передаваемых сиг- сигналов xt и вероятности р (у}) принимаемых сигналов у/, 2) апосте- апостериорные вероятности р (xt\y,-);3) вероятности перехода p{y'i\xi) сигналов Xi в ys. Ответ: 1) р (хг) = р (хг) = 0,5, р (г/J = р (у2) = 0,5; 2) р (хг \уг) = = Р (^U-2) = 0,9, р (yt\x2) = р ^,|v,) = 0,1, С8 3.2. Закон распределения двумерной случайной величины задан таблицей У\ Уг 0,10 0,06 0,30 0,18 0,20 0,16 Найти: 1) безусловные законы распределения случайных вели- величин X и Y; 2) условный закон распределения величины X при ус- условии Y = yv Ответ: 1. Р (-*!"• 0,16 к,. 1,4' 0,36 V; р (yj) У\ 0,60 0.40 2. с, Р (*, I Vt) \ L 1/6 V.! ч 1/3 3.3. По цели производится два независимых выстрела. Вероят- Вероятность попадания в цель при первом выстреле равна ръ при вто- втором — р2 Найти функцию распределения F2(x, у) двумерной случайной величины (X, Y), где X — число попаданий при первгм выстреле, a Y — число попаданий при втором выстреле Ответ: F2 (x, у) =¦ 0 при х^О A -р,)A -р-г) при 0<А< 1 1 -р, при 0 < ,v ^ 1 1 — рг при 1 при г/ > 1, х > 1, 0 <; у С 1, л' > 1. у > 1. 3.4. По каналу связи передается один раз дискретный сигнал, вероятность правильного приема которого р = 0,8. Определить закон распределения в табличной форме и функцию распределения F2 (x, у) двумерной случайной величины (X, Y), где X — число правильно принятых сигналов, а К — число не- неправильно принятых сигналов л* 99
Ответ: </j=0 Уг= 1 Ki x,=0 0 0,2 | ,.= . 0,8 0 F2 (х, у) = 0,2 при 0,8 при 1 ,0 х<1, г/> 1, х> 1, 0<г/<1, при х>1, г/>1, в стальных случаях. 3.5. Доказать, что для независимых случайных величин X и У справедливо равенство F2 (х, у) = Fx (x) F, (у). 3.6. Система независимых случайных величин (X,, Х2, ..., Х„) задана плотностями вероятностей рх (хг), р, (х2), ..., р„ (хп). Вычислить функцию распределения Fn(xlt x2, ..., хп) этой си- системы случайных величин. п и Ответ: Fn (хъ х2, ..., хп) = fl j' рЛУг)&У1- i = 1 —оо 3.7. Независимые случайные величины X и У распределены по закону Гаусса с параметрами тх = 1, ту = — 3, ст? = 9, о* = 16. Написать выражение для плотности вероятности р2 (х, у) системы случайных величин (X, У). Ответ: р., (х, у) ~ -J-exp Г - <х~'1У> - (У + 3Ч. w 24л К[ 18 32 J 3.8. Независимые случайные величины X и У имеют равномер- равномерные распределения соответственно в интервалах от 0 до 1 и от —1 до 1. Определить функцию распределения F2 (x,y) системы случайных величин (X, У). Ответ: 0 при xsC.0, y<^.~\, х(у+\)/2 приО<дс<1, — 1 <г/< 1, х при 0<х< 1, у> 1, . при х> 1, — 1 <г/< 1, F, (х, у) = при х>\, у>\. 3.9. Плотность вероятности рг (х, у) системы двух случайных ве- величин (X, Y) имеет вид р2 (х, у) = Л/A + х2 + У2 + хУ). Найти: 1) коэффициент Л; 2) вероятность Р попадания величины (X, У) в квадрат:—1 ^ х ^ 1, — 1 ^ у <: 1; 3) функции распреде- распределения F2(x, г/), F, (x), Fiiy); 4) плотности вероятностей р1 (х) и р^г/) и зависимость случайных величин X и У. Ответ: 1) Л = 1/я2; 2) Р-0,125; +4)farctgy+-i 4) Pl(x) = 1/яA 4- х% Рг{у) = 1/яA 4- у2) Случайные величины X и У независимы. 3.10. Функция распределения F2(x, у) двумерной случайной величины (X, У) задана выражением: F2 {х, у) = 1 — е~ах — е-Р* 4- е-«*-Р*, л: > 0, у > 0. Определить: 1) плотность вероятности р2(х, у) системы (X, У); 2) плотности вероятностей рг (х) и р1 (у) и зависимость случайных величин X и У; 3) вероятность попадания величины (X, У) в квад- ра/с вершинами: Л A,1) Б @,1); С @,0) D A,0). Ответ: 1) р2 (х, у) = аре-"-^; 2) Pl (x) = ае-«,. р1 (у) = =Ре~*", случайные величины X и У независимы; 3) Р= A —е~а)х хA —е-»). 3.11. Плотность вероятности р2 (х, у) системы двух случайных величин (X, У) задана выражением р2 (х, у) = (Л/я) ехр (-х2 + 6х-у2-2у- 12). Определить: 1) коэффициент Л; 2) плотности вероятностей /?! (х) и р! (г/) соответственно величин X и У; 3) являются ли слу чайные величины X и У зависимыми. Ответ: 1) Л = е2; 2) Р](х) = A /|/я)е-<*-^\ ; 3) случайные величины X и У независимы. 3.12. Двумерная случайная величина (X, У) имеет плотност! вероятности р.г (х, у) = A sin (х 4- у), 0 < х ^ я/2, 0 < у ^ я/2 Определить: 1) постоянную А, функции распределения F2(x, у) Fx(x). Fx(y)\ 2) вероятность Р выполнения неравенств х < я/4, у < яЧ. Ответ: 1) Л = 0,5, F2(x, у) = 0,51 sin* 4- sin у — sin (x + у)] Ft (х) = 0,5 A — cos х + sin x), F, (у) = 0,5 A — cos у + sin у). 2) Р = 0,207 3.13. Двумерная случайная величина (X, У) имеет равномер- равномерную плотность вероятности внутри круга С радиуса R: . fl/я/?2 при x2+y2^R\ МХ>У)П0 nPux>+y2>R2. Доказать, что случайные величины X и К являются зависи мыми 101 = A/|/"п)е-<»+1>\
3.14. Плотность вероятности двумерной случайной величины (X, Y) имеет вид х2— 2Rxy+i/ 2A-/?*) Вычислить плотность вероятности случайной величины X. Ответ: ру (х) = е~Л'2/2. У 2л 3.15. Плотность вероятности р2(х, у) двумерной случайной ве- величины (X, Y) имеет вид ГI /6л внутри эллипса (х2/9+г/2/4 ^ 1), Р-г (X, У) = \ [О вне этого эллипса. Доказать, что X и Y — зависимые величины. 3.16. Двумерная случайная величина (X, Y) распределена по нормальному закону с плотностью вероятности Требуется: 1) найти значение величины h, если известно, что вероятность попадания в круг (х2 + уг ^ R2) равна р\ 2) определить, при каком значении h вероятность попадания в кольцо (г2^.х2 + + У2 ^ R2) будет наибольшей Ответ: 1) h =± ,/taX; 2) А = }/ШШ. 3.17. Закон распределения дискретной двумерной случайной величины (X, Y) задан таблицей у2 = 0 Л, = — 1 4/15 1/15 0 1/15 2/15 2/15 <.- 4/15 1/15 0 Требуется: 1) определить математические ожидания тх и mw случайных величин X и У; 2) установить некоррелированность и зависимость случайных величин X и Y. Ответ: \) тх = 0, т,, = — 7/15; 2)Хи К не коррелированы, так как Кху = 0; однако А" и К зависимы, потому что необходимое для независимости условие p(xt, yfi = p(xt) р(У/) не выполняется. 3.18. По одной и той же стартовой позиции противника произ- производится три независимых пуска ракет, причем вероятность попада- попадания в цель одной ракетой равна р. Пусть случайная величина X — число попаданий в цель, а случайная величина Y — число промахов. 102 Найти математические ожидания и дисперсии случайных вели- Щ чин X и Y, а также корреляционный момент и коэффициент корре- .*?..' ляции. *;^Г Ответ: тх = Зр, тг/ = 3q, а\ = ст? = 3 pq, Кху = — 3/7G, 3 Rxy = ¦ — U q = 1 — р- „я;. 3.19. Написать выражение для нормальной плотности вероят- |;. ности р2 (х, у) двумерной случайной величины (X, Y) если Ответ: Рг (х, У) = 32л ¦ехр 1,28 12 25 1,2*(у-6) (у—6)» 20 25 ])¦ 3.20. Плотность вероятности двумерной случайной величины (X, Y) определяется формулой рг(х, у) = 0,5 sin (х + у), 0<х<л/2, 0 < у < я/2. Определить: 1) математические ожидания тх и ту, дисперсии D (X), D (Y) случайных величин X и Y; 2) корреляционную и нор- нормированную корреляционную матрицы. Ответ: 1) тх --=mv= 0,785, D (X) =D(K) =0,188; 2)||/<г/|| = 0,188 -0,046 —0,046 0,188 1 — 0,245 ¦ 0,245 1 3.21. Двумерная случайная величина (X, Y) распределена по нормальному закону с параметрами тх — ти = 0, ох = ау — о, R*y = о. Вычислить вероятности событий: а) |5/|<сХ; б) К <С X; в) Г < I X | Ответ 1181: а) 0.25; б) 0,5: р) 0,75. 3.22. Определить совместную плотность вероятности р2(х, и) случайных величин X =¦ sin Ф и Y = соэФ при известной плот- плотности вероятности pY (гр) случайной величины Ф в интервале (—я, я). Ответ \Щ pt(x. у) ^ у 6 (у 3.23. Двумерная случайная величина (X, Y) имее1 нормальную совместную плотность вероятности Pi (X, У) = 2яа2 ехр — 2а2 Вычислить совместную плотность вероятности р2{г, ср) вели- величины (R, Ф), если X = RcosG), Y = ЯэшФ. Ответ: р2 (г, ср) = (л/2яа2) ехр (—л2/2о2), г > 0. юз
Случайные величины R и Ф — независимы, так как р2 (г, ср) = " Pi (r) Fi (ф). гДе величина R распределена по закону Релея (га2) ехр (—r2/2a2), a величина Ф — по равномерному закону A (cf) = 1/2 я. 3.24. Совместная плотность вероятности р2 (хъ х.2) системы (Хъ Х2) имеет вид п iy vi fe~*>-*> при^>0и х2>0, р2 (хъ x2)=i (О в остальных случаях. Найти плотность вероятности р2, (ух, у2) двумерной случайной величины (У,, Y2), если Уг = Хх + Х2, У2 = X2/Xv Ответ [71: при 0, у2>0, О при других ух и у2. 3.25. Доказать, что целочисленная случайная величина У = = | Л\ — Х2\, где Xi и Х2 — независимые случайные величины, распределенные по закону Пуассона с параметрами Кх и К2 соответ- соответственно, имеет закон распределения вида МГ). «=0, = 1,2,... Указание. Следует воспользоваться методикой и резуль- результатами примера 3.12. 3.26. Получить функцию распределения Fx (г/) и плотность ве- вероятности рх(у) случайной величины Y = max (Xlt X2) при заданной совместной плотности вероятности р2 (хх, х2) случайных величин Aj И X 2. Ответ: U II Fi (У) =j j Р-г (хъ х2) dxx dx2 = F, (г/, у), — оо —ос Pi(y)= J — о Указание. Следует воспользоваться методикой решения примера 3.8. 3.27. Определить плотность вероятности р1(у) случайной ве- величины У — min (X, X2) по известной плотности вероятности р0 (х) случайной величины X. Ответ [181: рЛУI^У"у приО<;/<1, рп(у) при 1/^.0 и у>\. 3.28. Производится однократное измерение частоты колебаний автогенератора, распределенной по равномерному закону в интер- интервале от fmln до /шах. Найти плотность вероятности рх (у) результата измерения Y — F -j- X, где погрешность измерения X не зависит от F и рас- распределена по закону Гаусса Ответ Pl (х) = A/а УЩ ехр (—х2/2 а2). : Pl(y) = ! \ф( y~f™l« )—ф(У-1 fmax — fmln L V ° / \ п 3.29. Доказать с помощью аппарата характеристических функ- функций, что сумма двух независимых случайных величины Z = X + У с нулевыми математическими ожиданиями и дисперсиями а\ и а2у распределена по закону Гаусса с характеристической функцией вида 3.30. На вычитающее устройство воздействуют независимые сигналы X (t) и У (t) с нулевыми математическими ожиданиями, ди- дисперсиями al и al соответственно и гауссовскими одномерными плотностями вероятности. Определить плотность вероятности pt(z) величины Z = X — У на выходе вычитающего устройства. Ответ: Pl(z) = A/агУЩ ехр (—22/2а|), где <т1 = а\ + а\. 3.31. Найти плотность вероятности случайной величины У = = АХ, где Л и X — взаимно независимые случайные величины с плотностями вероятности Pl(A) = (А/а\) ехр(—A2I2 of), A > 0, Pl (х) = A/ах |/л) ехр (—х'Ч2о'х), — оо < х < оо. Ответ Pl (у) — 2ai a» 3.32. Вычислить плотность вероятности случайной величины Z = ЛУГ, если X и У — независимые случайные величины, распре- распределенные по закону Релея: X —л:2 /2а' | = JLe y/2a) x>ot y>Q. Ответ: Pl(z) = 2z/(l + г2J. 3.33. Случайная величина У = аЛ^ + ЬА^г. где а и b — постоян- постоянные коэффициенты, а Хги Х2 — независимые случайные величины с параметрами hx и К2 соответственно. Показать, что распределение У не подчиняется закону Пуас- Пуассона. 105
3.34. Найти математическое ожидание и дисперсию случайной величины Z = 2Х — ЗУ, _если М (X) = О, М (Y) = 2, D (X) = 2, D(Y)=1, /?„ = -1/К2. Omem: М (Z) = — 6, D (Z) = 29. 3.35. В системе радиосвязи с разнесенным приемом (рис. 3.6) приемники находятся на таком расстоянии друг от друга, что сиг- сигналы X, Y, и Z статистически независимы. Определить коэффициент корреляции Ruo для напряжений U и V, если X, Y и Z распределены по закону Гаусса, причем их сред- средние значения равны нулю, а дисперсии а? = о2у = 3, al = 12. Ответ: RUv = 0,8. 3.36. Производится п независимых измерений некоторой фи- физической величины. Рассматривая результат каждого измерения случайной вели- величиной Xi с математическим ожиданием m и дисперсией а2, вычислить: 1) математическое ожидание тп и дисперсию а\ среднего арифме- арифметического п измерений; 2) относительную ошибку Д = оп/т„ в оп- определении среднего арифметического. Ответ: 1) тп = т, а„ = оУп, 2) Д = а/т Yn- 3.37. Определить математическое ожидание и дисперсию слу- случайной величины Z = XY, если независимые величины X и Y имеют равномерные распределения соответственно на интервалах (а, Ь) и (с, d). Ответ: т2 = (а + b)(c + d)/4, а§ = (а1 + аЬ + Ь2)Х Х(с2 + cd + d»)/9 — (а + Ь)* (с + d)V\6 3.38. Для определения площади квадрата измеряют две его стороны с помощью одного инструмента и результаты измерения перемножают. С какой относительной средней квадратической ошибкой А = = о/т нужно измерять стороны квадрата для того, чтобы средняя квадратическая ошибка определения площади была не более 1%? Ответ: Д = 0,71 %. 3.39. В индикаторе кругового обзора радиолокационной станции применена электронно-лучевая трубка, экран которой представляет собой круг радиуса а. Из-за наличия помех на экране может появить- появиться пятно с центром в любой точке экрана. Приемник 7 Приемная Z Лриемнин 3 Сумматор V-X+Z Сумматор Рис. 3.6. Система радиосвязи с разнесенным приемом 108 ^ Найти математическое ожидание и дисперсию расстояния цент- чра пятна от центра круга. Ответ: тТ = 2о/3, с? = а2/18. 3.40. Случайные величины X, Y, Z имеют равные математиче- математические ожидания М(Х) = М (Y) = М (Z) = 10, дисперсии D (X) = = 1, D (Y) = 4, D (Z) = 9 и коэффициенты корреляции /?г„ = = 0, Rxz = 1/4, R,IZ = 1/2. Вычислить: а) М (X + Г); б) D (X + Г); в) М (X + Z); г) D (X + Z); д) М (X - Z); e) D (X — Z); ж) М (X + Г — 2Z); 3)D(X+K —2Z); и) МШ(Х)|; к) D Ш (ХI; л) М-[?> (ХI; u)D\D(X)l Ответ: а) 20; 6) 5; в) 20; г) 11,5; д) 0; е) 8,5; ж) 0; з) 26; и) 10; кH; л) 1; м) 0. 4. ОСНОВЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Математическая статистика — раздел математики, посвященный уста- установлению закономерностей случайных явлений или процессов на основании обработки статистических данных—результатов наблюдений или измерений. Наиболее важными в прикладном плане являются три задачи математи- математической статистики [6, 7, 13, 20—25J. 1. Оценка неизвестной функции распределения или плотности вероят- вероятностей, когда по конкретным значениям хъ х2, ..., хп, полученным в резуль- результате независимых измерений случайной величины X, требуется оценить не- неизвестную функцию распределения Ft (x) величины X или ее плотность вероя- ности pt(x), если X — непрерывная случайная величина. 2. Оценка неизвестных параметров. В этой задаче предполагается, что на основании физических или общетеоретических соображений можно заклю- заключить, что случайная величина X имеет функцию распределения определенного вида, зависящую от нескольких параметров, значения которых неизвестны. По результатам наблюдения величины X нужно оценить значения этих параметров. Задачу можно ставить вне связи с функцией распределения. На- Например, требуется оценить: математическое ожидание, дисперсию или момен- моменты случайной величины X; амплитуду, частоту или фазу радиоимпульса, наблюдаемого на фоне шума; корреляционную функцию или спектральную плотность стационарного случайного процесса и т. д. 3. Статистическая проверка гипотез. Обычно эта задача формулируется так. Пусть на основании некоторых соображений можно считать, что функция распределения исследуемой случайной величины X есть Fl (x). Необходимо выяснить, совместимы ли опытные данные с гипотезой, что случайная ве- величина X действительно имеет распределение F, (х). Задачу можно сформу- сформулировать иначе. Предположим, наблюдаемые значения случайной величины X обусловлены двумя или несколькими различными причинами (гипотезами). В результате наблюдения величины X нужно решить, с какой из гипотез сле- следует связывать полученные значения величины X. Например, пусть на вход радиоприемного устройства поступает случайное колебание X (t), которое в каждый момент времени является либо суммой сигнала s (t) и помехи n(t) (гипотеза Я,), либо одной помехи (гипотеза Но). В некоторый фиксированный момент времени произведено измерение величины X. По полученному число- числовому значению х нужно решить наилучшим образом, присутствовал ли на входе сигнал s (t), т. е. выбрать одну из двух гипотез: Hi (х = s + л) или Но (х — п). 107
Исходными данными, подлежащими обработке, служат результаты наблюдений над случайной величиной X. Множество всех возможных значений случайной величины К называется генеральной совокупностью, а множество опытных значений хх, х2 хп — выборочными значениями, число п — объемом выборки. Если известны функция распределения Fi(x) или плотность вероятности Pi(x) случайной величины X, то говорят, что выборка хъ дс2> ••¦> хп принад- принадлежит распределению F1(x) или р1(х). Расположив числа хх, х%, ..., хп в возрастающем порядке, так что *, > xj при i > /, получим упорядочен- упорядоченную выборку, называемую вариационным или статистическим рядом. По выборке объема п определяются ее статистические характеристики*' — приближенные значения соответствующих вероятностных характеристик со- совокупности. Приближение тем лучше, чем больше п. Аналогом функции распределения Fx (x) случайной величины X слу- служит статистическая (эмпирическая) функция распределения F{ (x) выборки, которая представляет собой частоту события X < х: F{ (х) = Я* (X < х) = \/п: D.1) где v — число членов выборки, меньших х. Когда выбор осуществляется из непрерывного распределения и число выборочных значений велико (порядка сотен), целесообразно строить гисто- гистограмму, которая является статистической аппроксимацией плотности вероят- вероятности р1 (х). Для этого область экспериментальных значений случайной ве- величины разбивают на г обычно одинаковых интервалов h и вычисляют отно- относительную плотность точек в каждом интеервале: pilh = v,-/n/i, i = 1, 2, .... г. D.2) где V| — число экспериментальных точек в i-м интервале; pi = v,7n — от- относительная частота. Подсчитанные таким образом значения изображают графически в виде ступенчатой кривой: по оси абсцисс откладывают соответ- соответствующие интервалы и на каждом из них как иа основании строят прямоуголь- прямоугольник высотой pilh. Полученная ступенчатая кривая называется гистограммой. На практике часто возникает необходимость аппроксимации гисто- гистограммы подходящим аналитическим выражением какой-либо теоретической плотности вероятности (выравнивание статистических данных). При этом аппроксимация должна быть в определенном смысле наилучшей. Подбор аппроксимации обычно начинается с качественного сопоставле- сопоставления гистограммы с графиками различных теоретических плотностей вероят- вероятностей и с выбора наиболее близкой к гистограмме. Большой набор плот- плотностей вероятностей р, (х) дает система кривых Пирсона, задаваемая дифферен- дифференциальным уравнением dp, (X) х+а ¦Pi(x). dx bx*-\-cx Параметры а, в, с, d определяются из условия сохранения первых четырех моментов статистического распределения. По методу моментов параметры а, Ь, с, ..., подбирают так, чтобы первые (низшие) моменты распределения р1 (х) равнялись бы соответствующим ста- статистическим моментам. Число приравниваемых низших моментов определяется количеством неизвестных параметров а, Ь, с, ... Чтобы оценить, насколько хорошо выбранный теоретический закон ра- распределения согласуется с результатами наблюдений, используют критерии согласия, среди которых наиболее часто применяется критерий х2. По этому *' Статистические характеристики всюду отмечены индексом *. 103 критерию за меру расхождения результатов наблюдений и теоретического распределения принимают величину %2=> I— i (¦= I npt — п. D.3) где п — объем выборки; г — число интервалов разбиения экспериментальных данных; V; — число значений в i-м интервале; р* — относительная частота; Pi — вероятность попадания случайной величины X в i-й интервал. Случайная величина X2, независимо от распределения величины Л, при п->оо асимптотически распределена по закону %2 с k = г — s — 1 степенями свободы, где s — число параметров теоретического распределения, оцени- оцениваемых по результатам наблюдений. Можно рекомендовать следующую методику применения критерия ха для оценки расхождения теоретического и статистического распределений. 1. По формуле D.3) подсчитать значение %2. 2. Определить число степеней свободы k = г — s — 1. 3. Исходя из характера задачи, выбрать достаточно малую (обычно рав- -ную 0,05 или 0,01) вероятность а, называемую уровнем значимости. 4. С помощью таблицы приложения III по известным ha найти значе- значение величины'xj-a. определяемой равенством Р (?>Ч. а) = J Pi (X2) dt = 1 - f l; a). D.4) 5. Если значение х2. вычисленное по формуле D.3), больше х|.а. то тео- теоретическое распределение считают плохо согласующимся с результатами на- наблюдений при уровне значимости а; если х2 < Xl-a> то полагают, что выбран- выбранное теоретическое распределение согласуется с экспериментальными данными. Свойства выборки описываются также более простыми характеристи- характеристиками — выборочными (статистическими) моментами: выборочным средним т*, выборочной дисперсией Dx и т. д. Выборочные среднее, дисперсия, начальный и центральный моменты k-vo порядка определяются соответственно формулами: <=- M*l(X~ m'v)k]= — D.5) D.6) D.7) D.8) '=) 109
Если отдельные значения в ряде распределения повторяются по несколь- несколько раз, то следует учесть частоту каждого повторения. Тогда, например, фор- формулы D.5) и D.6) примут вид: °;=-7 2  2 *Тv* ~Ю2< D.5а) D.6а) где Xt — значение величины X в i-м опыте; v,- — часто™ значения Х(. При вычислении выборочных среднего и дисперсии по сгруппированным данным пользуются формулами D.9) D.10) (= I /7 ^e где г — число интервалов группировки; а; — середины интервалов. Такой подсчет вносит ошибку, особенно заметную при малом числе интервалов. Для ее уменьшения прибегают к поправкам Шеппарда. При равных интер- интервалах h формулы для первых двух выборочных моментов с учетом поправок Шеппарда имеют вид: т\=т\, т\ — т\—Л2/12. Для выборочного начального момента порядка k [16]: * где Bi — числа Бернулли. Двумерное статистическое распределение случайной величины (X, Y) задается парами значений (%, у^, (л\2, у2), ¦¦¦, (хп: уп), причем основной ин- интерес в данном случае представляют форма связи между А" и У и степень этой связи. Информацию об этом дает статистический корреляционный момент Кху и статистический коэффициент корреляции RXy: где п\\, ту, ах, Оу — выборочные средние и средние квадратические откло- отклонения величин X и Y. Выборочные значения и их функции интересны не сами по себе; они слу- служат средством для получения статистических выводов. При оценке параметров распределения совокупности по выборочным характеристикам предполагается, что теоретическое распределение известно, а неизвестны лишь его параметры — числовые характеристики. Оценка может быть точечной, когда она определяется одним числом, или интервальной, ко- когда определяется двумя числами—концами интервала. В качестве точечных оценок может существовать много выборочных статистик — функций наблю- наблюдаемых значений. Чтобы оценка 1 параметра к имела практическую ценность, она должна обладать тремя главными свойствами: несмещенностью, состоя- состоятельностью и эффективностью. 11Э Оценка называется несмещенной, если при любом объеме выборки М [к] = к, D.11) где к — истинное значение оцениваемого параметра. В противном случае она обладает смещением Д^ (систрматнческон ошибкой), величина которого \ = М [к] - к. Оценка называется состоятельной, если она сходится по вероятности к оцениваемому параметру при увеличении объема выборки: Urn Р{\ к — к\ D.12) где е > 0 — сколь угодно малое число. Несмещенная состоятельная оценка называется эффективной, если при заданном объеме выборки я она имеет наименьшую дисперсию: где А — рассматриваемая оценка, А,г — любая другая оценка. При оценке одного параметра дисперсия оценки по выборке объема п не может быть меньше нижней границы ( границы Рао — Крамера): ^min = д\пр1(Х; к) дк IV D.14) где рх (X; к) — плотность вероятности или в случае дискретной случайной величины X вероятность Р (X = *,•; к). Оценками математического ожидания тх, дисперсии Dx, начальных и центральных моментов случайной величины X могут служить соответствую- соответствующие выборочные характеристики D.5) —D.8). При увеличении числа наблю- наблюдений они сходятся по вероятности к соответствующим характеристикам ве- величины X, причем оценки начальных моментов несмещенные и состоятельные, а оценки центральных моментов состоятельные, но смещенные. Поэтому за оценку дисперсии Dx предпочтительнее брать не статистическую дисперсию - 1 ", а «исправленную» выборочную дисперсию = -Z(Xi-m*)\ 1 п — \ п п—\ D.15) которая является несмещенной оценкой. Для получения точечных оценок неизвестных параметров распределения практически используются четыре метода**: метод моментов, метод минималь- минимальной дисперсии оценки, метод максимальной апостериорной вероятности и ме- метод максимального правдоподобия [22]. Из них наиболее часто применяются метод моментов и метод максимального правдоподобия. При методе моментов выборочные моменты приравниваются к соответ- соответствующим моментам теоретического распределения, которые являются функ- функциями от неизвестных оцениваемых параметров. В случае оценки одного пара- параметра достаточно иметь одно уравнение относительно этого параметра. Пусть, например, задан вид плотности вероятности р1 (х; к), определяемый одним параметром к. и требуется найти оценку к этого параметра. Следуя ме- *' Оценки к, полученные разными методами, здесь обозначены одинаково, хотя они различны и совпадают лишь в частных или асимптотических случаях. 111
тоду моментов, приравняем первый теоретический момент т1 (к) = тх (к) пер- 1 " вому выборочному моменту тх = тх =¦ — 2j xi' тх(к) = тх. f4 16) Решив это уравнение относительно к, найдем оценку к, которая является функцией от выборочной средней и, следовательно, функцией выборочных значений: Л —¦ (р у JCj , Хп t » • • ) Xji ) • При оценке k неизвестных параметров \, Ха, ..., Х& следует найти первый, второй, .., 6-й моменты распределения рг (х\ Xj, Х2, ..., Х&): J x>pi(x\ ku k2, ..., а затем соответствующие выборочные моменты: т, (Xi, х%, ..., хп) — ^ X; и приравнять их. Тогда получим систему k уравнений с k неизвестными: Решив систему D.17), определим оценки неизвестных параметров. Достоинством метода является его простота. Однако он содержит эле- элемент произвола, так как, кроме моментов, можно рассматривать и другие характеристики (моду, медиану и т. д.). Оценки по методу моментов в смысле эффективности не являются «наилучшими» — в больших выборках оии имеют не наименьшую дисперсию. Метод максимального правдоподобия, как и два других метода, бази- базируется на рассмотрении апостериорной (послеопытной) плотности вероят- вероятности: pps (к) = р (Х| xi, хг, ..., дс„> = /гррг {X) L (X), D.18) где k = p-1 (xlt х-2, ..., хп) — коэффициент, зависящий от результатов выбор- выборки, но не зависящий от параметра X; ррг(Х) — априорная (доопытная) плот- плотность вероятности параметра X; L (к) = р (*,, х2 хп\к) — функция прав- правдоподобия. Если плотность вероятности Pi(x; к) случайной величины X содержит один, подлежащий оценке параметр X, то функция правдоподобия для этогр пара- параметра при независимой выборке объема п имеет вид п L(X = П Pilxr, X) D.19) За оценку максимального правдоподобия параметра к принимается та- такое его значение к, при котором L (к) достигает максимума, т. е. такая оценка является решением уравнения правдоподобия: din L(l) d\nL(k) - = 0. D.20) i дк При оценке k неизвестных параметров \, л2 к^ распределения рх (х; къ Х2, ..., kk) оценки определяются как решения системы уравнений dlnL(kv к2, .... кк)/д\ = 0, / = 1,2, ..„к. D.21) 112 Оценки, полученные по этому методу, при довольно общих условиях явля- являются состоятельными, асимптотически несмещенными, асимптотически нор- нормальными и асимптотически эффективными На практике этот метод иногда приводит к сложным системам уравнении. Точечные оценки применяются прежде всего тогда, когда с их помощью Нужно провести еще и другие расчеты. Такие оценки не несут информации о точности конкретной оценки. При малых выборках они случайны, а поэтому малонадежны. Точность и надежность оценки позволяют определить интер- интервальные оценки. Пусть из опыта получена несмещенная оценка X = g (xl, х2 хп) параметра X. Для разумного использования этой оценки на практике нужно знать вероятность того, что при данном объеме выборки п отклонение оценки X от оцениваемого параметра X не превысит границы 8 > 0: Р {|Х — Х| < 8} = Р {—б < X — X < 6} = Р{Х — б<Х<Х + б}= р D.22} где б — точность оценки; р1 — доверительная вероятность (надежность) того, что при данном п оценка X будет иметь точность б; (X — б; X + б) — до- доверительный интервал. Величина р определяется конкретными условиями задачи и обычно выбирается равной 0,95, 0,99, 0,999. Задаваясь любыми двумя из величии б, р1, п, связанных соотношением D.22), можно найти третью. Для этого нужно знать закон распределения оценки X, который в об- общем случае зависит от самих неизвестных параметров. Однако иногда удает- удается перейти в D.22) отк к таким функциям выборочных значений, закон рас- распределения которых зависит только от объема выборки п и закона распреде- распределения случайной величины X и не зависит от неизвестных параметров. Если выборка объема п произведена из гауссовской геиеральной совокуп- совокупности с параметрами тх и ol, то доверительные интервалы для оценок парамет- параметров с вероятностью Р рассчитываются по следующим формулам 1. Доверительный интервал для математического ожидания тх при из- известной дисперсии а| строится на основе выборочной функции Z — (т* — — тх)/ах, имеющей стандартное нормальное распределение с параметрами М (Z) =0, Ог = 1. В этом случае от формулы D.22) приходим к выра- выражению * /1 У~ ^ ^ т* т п I л/~п D- ^}"\\ где Zg = б^]/п/аг определяется из равенства Ф (zg) = (l + C)/2 по таблице приложения П. 2. Доверительный интервал для математического ожидания тх при не- неизвестной дисперсии ol строится с использованием выборочной функции Т = (ml — mx)~\/nls, имеющей /-распределение Стьюдента с k=n — 1 сте- степенями свободы. В этом случае формула D.22) приводит к выражению где <¦= I tk a—a—процентная точка ^-распределения Стьюдента ck — n — 1 степеня ми свободы, определяемая по таблицам приложения IV из условия *k. a. ki 1_а/2 = — 'ft; a/2. 113
3. Доверительный интервал для дисперсии а.е строится с использованием выборочной функции %2 = (п — 1) s2/ct2, имеющей х'2-распределение Пир- Пирсона с k = п — 1 степенями свободы, в соответствии с формулой ?g2/-.2 <- q2 <^ ?<j2 y2 D.25) где х*; <х — а — процентная точка ха-Расгтределения Пирсона с k = п — 1 степенями свободы, определяемая равенством p{t>tl,a)= J Процентные точки х2-распределения приведены в приложении П1. х2~Распре- деление асимметрично, х2 > 0. На практике обычно выбирают у^ и х2 так, чтобы Р{х2 >х!}==^> {х2 < '/!} = а/2. Статистические гипотезы могут формулироваться или относительно не- неизвестных параметров известного распределения (параметрическиетипотезы), или относительно неизвестного закона распределения (непараметрические гипотезы). Возможны и другие варианты гипотез. При двухальтернативной ситуации, когда происходит одно из двух собы- событий, рассматривают две гипотезы: исходную (нулевую или основную) Яо и конкурирующую (альтернативную) Я,, которая противоречит Нв. Задача состоит в том, чтобы по результатам наблюдений принять одну из них. Из- за случайного характера явлений любое решение (выбор одной из гипотез) сопровождается ошибками двух видов. Ошибка первого рода возникает тогда, когда отвергается правильная гипотеза, а ошибка второго рода—когда при- принимается неправильная гипотеза. Пусть наблюдаемое событие обусловлено одной из двух причин: Ло (гипотеза #0) или At (гипотеза Я,); Г — пространство всех возможных зна- значений наблюдаемой величины X; Го — область принятия гипотезы Яо; 1\— область отклонения гипотезы Яо (критическая область); р0 (х) = р (х\А0), Pi (*) = Р (х\ А,) — условные плотности вероятности точки к пространства Г; Ррг (Ло) = р, Ррг (Л,) = q = 1 — р — априорные вероятности Ло и Л,; а — условная вероятность ошибки первого рода (уровень значимости t критерия); р — условная вероятность ошибки второго рода; A — р) — мощ- мощность критерия; ра и ра — безусловные вероятности ошибок первого и второго рода; Ре — суммарная вероятность ошибки. Тогда справедливы следующие сотношения: а = | p. (x)dx, P = f Л (х) dx, Г, Г„ t = P | po(x)dx, г, с , г, , = </J р, (лг)йдг. г, г„ pi(x)dx, q=\—p. D.26) D.27) D.28) В радиотехнических приложениях наиболее часто применяются два оп- оптимальных правила решения: критерий идеального наблюдателя (критерий Котельникова — Зигерта) и критерий Неймана — Пирсона. Критерий идеального наблюдателя применяется тогда, когда нет разли- различия в значимости ошибок первого и второго рода и когда известны априорные вероятности каждой из гипотез, что характерно для радиосвязи. При этом критерии правило решения состоит в следующем: если / (дг) > h, если Цх) < /i, то принимается Я,, то принимается Яо, D.29) 114 где 'W = Pi (*Vpo (¦*). D.30) — отношение правдоподобия; А = plq — постоянный порог, который являет- является решением уравнения = plq- D.31) Критерий идеального наблюдателя минимизирует вероятность полной ошибки ре= Р J pu(x)dx Pi(x)dx. D 32) Критерий Неймана — Пирсона применяется в случаях, когда значимость ошибок аир различна, а априорные вероятности гипотез неизвестны (харак- (характерно для задач радиолокации). При этом критерии оптимальным считается такое решение, когда при заданной ошибке первого рода минимизируется ошибка второго рода. Решение выносится на основании сравнения отношения правдоподобия I (х) с порогом h: Цх) = pl(x)lpa(x)>h. D.33) Порог h определяется по наперед заданной ошибке первого рода оо a=J po(x) dx. D 3",) ft Для проверки гипотезы Яо о законе распределения генеральной совокуп ности обычно используют критерий согласия х2> при котором за меру расхож- расхождения теоретического и статистического распределений принимается ве.г.и чина D.3), которая при п -*¦ со асимптотически распределена по закону у- ck=r — l степенями свободы, независимо от распределения случайной ве- величины X. Критерий х2 Для гипотезы Яо с уровнем значимости а отвергает Я„. если вычисленное по выборке значение х2 > х! а' и принимает Я.,, с с л: i у' < < х|; а' Величина xf.. a определяется из условия оо .С /МХ2)^)^ У-к:а по таблицам приложения III, при заданных k и а. Уровень значимости a наиболее часто выбирается равным 0,05 или 0,01. При применении критерия х2 необходимо, чтобы величины п и v* были достаточно велики (рекомендуется п > 5, v, > 5—8). Если число наблюдений в отдельных интервалах очень мало (одно-два наблюдения), то следует объе- объединить некоторые интервалы. 2. ПРИМЕРЫ 4.1. Ошибки 15 измерений дальности до цели с помощью радио- радиодальномера представлены таблицей Номер изме- измерения Ошибка xi, м 1 18 2 -15 3 —5 4 6 5 -15 6 6 7 12 8 —5 9 -10 10 6 11 —5 12 —10 13 12 14 —10 15 —5 115
Требуется: 1) построить распределение выборки и статистическую функцию распределения F\ (х)\ 2) определить выборочную среднюю ml и выборочную дисперсию D"x ошибки измерения. Решение. Вариационный ряд имеет вид: —15, —15, —10, —10, _10, —5, —5, —5, —5, 6, 6, 6, 12, 12,18. Он содержит шесть раз- различных значений: —15, —10, —5, 6, 12, 18. Частоты vt этих значений равны соответственно: 2, 3, 4, 3, 2, 1. 1. Распределение выборки представим таблицей Xl, М P*=Vj/n — 15 2 2/15 — 10 3 3/15 —?• 4 4/15 6 3 3/15 12 2 2/15 18 1 1/15 Наименьшее значение ошибки измерения X равно —15. Следо- Следовательно, F\ (х) = 0 при х ^ —15. Значение X < — 10, а именно *!= —15, наблюдалось два раза; поэтому F\ (х) = 2/15 при —15<< <х<—10; при —10 < х < — 5 F\ (x) = 2/15+3/15=5/15. Про- Продолжая аналогичные рассуждения, получим результаты, приве- приведенные в таблице X F](x) x< —15 0 — 15<*<—10 2/15 — 10<*<— 5 5/15 -5<,<6 9/15 6<*<12 12/15 12<*<18 14/15 x>\8 I График функции F\ (x) показан на рис. 4.1. 2. Используя формулы D.5а) и D.6а), получаем: — 15-2— 10-3 — 5-4+ -3+12-2+18-1 _ 4 ¦ is " ~ Т м> — f— У~ 103 м2. __ 225-2+100-3+25-4 + 36-3+144-2-f 324-1 ~ 15 4.2. В течение 24 ч регистрирующее устройство контроля каж- каждый час фиксирует напряжение сети. После первичной обработки данных получено распределение выборки в интервальной форме, прпгеденное в таблице Интервалы, В 213—215 1 215—217 3 217—219 6 219—221 10 221—223 4 Построить гистограмму выборки. Решение. Из таблицы видно, что частичные интервалы одинаковы ht = h = 2 В. Поэтому в соответствии с D.2) получим: p\lh = 1/24 ¦ p\lh = 0,125, 2 = 0,0208, p\lh = 0,208, p'Jh = 3/24 • 2 = 0,0624, p'Jh = 0,0834. Для построения гистограммы отложим по оси абсцисс указан- указанные в таблице частичные интервалы и на каждом из них построим прямоугольник высотой ptIh = pi (и), i = 1, 2, 3, 4, 5. Например, над интервалом 219—221 прямоугольник имеет высоту 0,208. Гистограмма выборки изображена на рис. 4.2. 4.3. Генеральная совокупность распределена по нормальному закону с неизвестными параметрами т и <т: рх (х) = ехр \—(х — тJ/2а2 Вычислить по независимой выборке хь х2, ..., хп оценки неиз- неизвестных параметров т и а: 1) методом моментов; 2) методом макси- максимального правдоподобия. Решение. Одномерная нормальная плотность вероятности оп- определяется двумя параметрами т и а2. 1. Параметры т и а2 представляют собой соответственно началь- начальный момент первого порядка т1 и центральный момент второго по- порядка ml : т1 — т, ml = Dх = а3. Начальный эмпирический момент первого порядка равен выборочной средней т\ = т*х, а центральный момент второго порядка—выборочной дисперсии т°* = D*x. Приравняв в соответствии с методом моментов соот- -15-10 -5 О х Рис. 4.1. Эмпирическая функция распределения 0,2 0, Iff 0,12 0,08 0,04 О 113 Z15 217 2J3 2Z1 223 и Рис. 4.2. Гистограмма выборки 117
ветствующие теоретические и выборочные моменты, получим оценки параметров нормального распределения: т = тх, о = }/ГОх. 2. В соответствии с D.19) функция правдоподобия имеет вид п L(m,o)=[]pl(xi; т> ст) = (а — (*,- т)-/2а21 = а логарифмическая функция правдоподобия: \nL(m,a)= ~n\no— — InBл) —\ (xt — 'mf. j 2a2 <*d Используя формулу D.21), получаем систему двух уравнений от- относительно т и о2: д In L (т, а) 1 •^^ dm 2a2 ^Ц dm a' \ **. I д In L (т. it) n , 1 -^ - --!L+-Ly {Xi -mf = 0. Отсюда находим /71 = Л V (х, - В данном случае оценки, найденные по методу моментов и по методу максимального правдоподобия, совпадают. Они являются состоятельными, причем первая из них несмещенная, а вторая сме- смещенная. 4.4. Произведено 16 независимых измерений случайной величи- величины X, распределенной по нормальному закону. По выборке найдена выборочная средняя т*х = 4,1. Оценить неизвестное математическое ожидание тх случайной величины X по выборочной средней при помощи доверительного интервала с надежностью E = 0,95, если: 1) среднее квадратическое отклонение величины X известно и равно единице; 2) среднее квадра- квадратическое отклонение о,, неизвестно, а выборочное среднее квадра- квадратическое отклонение величины X s = 1. Решение. 1. По условию, р = 0,95. Следовательно, Ф(гр) = = A + Р)/2=A + 0,95)/2=0,975. Из таблицы приложения II 118 находим значение zp = 1,96, которому соответствует Ф(г&)= = 0,975. Определим точность оценки б0 = zgijYri = l,96/]/l6= = 0,49. В соответствии с формулой D.23) при тх = 4,1 доверитель- доверительный интервал имеет доверительные границы: т>— 0,49=4,1— 0,49=3,61, ml + 0,49=4,1+0,49=4,59. Таким образом, значения неизвестного параметра тх, согласую- согласующиеся с данными выборки, удовлетворяют неравенству: 3,61 < тх < 4,59. 2. Случайная величина Т = (тх — тх)У tils подчиняется /-рас- /-распределению Стьюдента с k = п — 1 степенями свободы. Поэтому доверительный интервал строится по формуле D.24). По условию, k = п — 1 = 16—1 = 15, а=1—р, а/2 = A— —Р)/2=A —0,95)/2=0,025. Используя таблицы приложения IV, получаем: 4- а/2 — Us- 0,025= = 2,131. Тогда доверительные границы равны т'х — 4: и/ъчУп = 4,1—2,13Ы/4~3,57, nil + tk, a.,2s'V~n = 4,1+2,131-1/4~4,63. В данном случае с надежностью р = 0,95 неизвестный параметр заключен в доверительном интервале: 3,57 < тх < 4,63. 4.5. Произведено четыре измерения дальности до неподвижной цели с помощью радиолокатора, в результате получены следующие данные: 2470, 2490, 2580, 2520 м Оценить точность радиолокатора при надежности оценки р = = 0,95. Решение. Определим выборочные характеристики т\ и s*. По формулам D.5) и D.15) имеем: ¦ А 2470+ 1М90+2580+ 2520 тх = — 1=\ п — I ^^ = 2515 м, =2300 По таблице приложения III для 6 = 3, а/2=A — Р)/2=A— 0,95)/2= = 0,025 и 1 —а/2= 1—0,025=0,975 находим Ik: а/2 = ХЗ; 0.025 =9,35, X*; 1-а/2 = ХЗ: 0.975=0,216. Границами доверительного интервала для дисперсии а\ являются: 3-2300 = 736, ks2 3-2300 Ik: a/2 9,35 ' Х|;1_а/2 0,216 Тогда 736 м2 < о|< 31900 ма. : 31 900. 119
о,оь 0,03 0,0 1,0 0,8 -15-15-50515 25 as Рис. 4.З. Гистограмма выборки -25-15-50 515 25 x Рис. 4.4. Эмпирическая функция распределения Оценка среднего квадратического отклонения ]/736~< ох < ]/31900 или 27,2 м < ах < 178 м. Результат показывает, что для определения точности радиолока- радиолокатора четырех измерений мало. 4.6. Ошибки 500 результатов измерений дальности до цели ра- радиодальномером приведены в таблице Интервал (Л,-), м Число ошибок в интер- интервале V; Относительная частота р; -25; -15 F.0 0,10 — 15; —5 130 0,26 —5; 5 200 0,40 5; 15 100 0.20 15; 25 20 0,04 Требуется: 1) построить гистограмму р\{х) и эмпирическую функцию распределения F\(x) ошибок измерения дальности; 2) аппроксимировать выборочное распределение с помощью нормаль- нормального закона; 3) пользуясь критерием согласия %2 с уровнем значи- значимости ос = 0,01, проверить согласованность теоретического и эм- эмпирического распределений. Решение. 1. По условию, число интервалов г = 5, а длина ин- интервалов h = 10 м. Используя формулы D.2), D.1), данные таблицы и методику, изложенную в примерах 4.2 и 4.1, строим гистограмму и функцию распределения /•"* (x), графики которых соответственно изображены на рис. 4.3 и 4.4. 2. По методу моментов заменим теоретические параметры тх и а\ их выборочными характеристиками т*х и D'x. Последние опре- определим по формулам D.9) и D.10): тх = 2 aipt = — 20 • 0,1—10 • 0,26—0 • 0,40+10 • 0,20 + i= 1 + 20 • 0,04 =- — 1,8 м, !2J Dx = 2 afp! — {mxf = 400-0,l + l00-0,26+l00-0,2+ +400-0,04—3,24=98,76 м2, о* = ]/Z)| = ]/98/76« 9,93 м, где аг — середины интервалов: —20, —Ю, 0, 10, 20. Тогда выражения оценок плотности вероятности и функции ра- распределения будут иметь вид: /?! (х) = Bя02)-'/2 ехр [— (х — nifli о2] = = Bл • 98,76)-'^ ехр \—(х + 1,8O2 - 98,76], 9,93 3. Для определения меры расхождения D.3) необходимо вычис- вычислить вероятности где xit xt+1 — границы г-го интервала, а Ф(^) находится из таб- таблицы приложения II. Так, например, для четвертого интервала E; 15) имеем: pt = ф(-^А) _ ф ( 5+^8 ) = 0.2012. Резуль- таты вычислений остальных вероятностей сведены в таблицу hi, м Pi —25; —15 0,0821 — 15; —5 0,2818 —5; 5 0,3794 5; 15 0,2012 15; 25 0,0417 Подставив соответствующие значения в формулу D.3),получим расхождение: f = y (V'-"P'-J =3,427. ¦*^ по 1 = 1 Н1 Оценочными значениями заменены два параметра нормального распределения. Поэтому число степеней свободы k = 5—1 —2=2. Из таблицы приложения III при k = 2, а = 0,01 находим 7.1: а l: 0.0I = Так как у2 = 3,427 < %%-, а = 9,21, то гипотезу о том, что ошиб- ошибка измерения распределена по нормальному закону, можно считать правдоподобной 4.7. На вход радиоприемного устройства в некоторый фиксиро- фиксированный момент времени / воздействует случайное напряжение X(t), 121
Рис. 4.5. Нормальные плотности вероят- вероятности и ошибки первого и второго рода которое является либо суммой известного сигнала s (t) и помехи n(t) (гипотеза Ях), либо одной помехой n(t) (гипотеза Яо). Помеха п (t)— гауссовский стационарный шум с нулевым математическим ожи- ожиданием и известной дисперсией D. Априорные вероятности гипотез одинаковы: р = q — 1/2. В момент t = tx производится измерение величины X (t). Требуется: 1) построить правило решения; 2) вычислить услов- условные вероятности ошибок первого и второго рода, а также полную вероятность ошибки. Решение. При отсутствии сигнала X = п, поэтому ро(х) = BnD)-'/2 exp (—r72D). При наличии сигнала X = s + п. Следовательно, Pi (х) = ро(х — s)=BnD)~1^ exp I—(a- — sO2DT. 1. В соответствии с D.29) правило решения принимает вид 1(х) = рАх)/Ро(х) = expl— (s2 — 2 xs)/2D\ > 1, что эквивалентно (после логарифмирования) неравенству х ^ s/2. Таким образом, принимается решение о наличии сигнала (Я,), если измеренное значение х ^ s/2 (область Г,); при х <С s/2 (область Г„) констатируется отсутствие сигнала (Н„) 2. По формулам D.26) и D.28) находим вероятности ошибок: а =, [ р{,(.к)с1х= 1 —Ф(<-/2УП), Ре = ар +р<? = 1 - Ф (s/2 j/D"), где Ф (х) определяется по таблице приложения II. Графики плотностей вероятностей, а также ошибки а и E пока- показаны на рис. 4.5. 3. ЗАДАЧИ И ОТВ€ТЫ 4.1. В результате пяти измерений физической величины X одним прибором, который не имеет систематической ошибки, полу- получены следующие результаты: 92; 94; 103; 105; 106. 121 Определить: а) выборочную среднюю т*х измеряемой величины; б) выборочную D*x и исправленную s2 дисперсии ошибок прибора Ответ: а) тх = 100; б) D*x = 34, s2=42,5. 4.2. Из 100 транзисторов в среднем бывает два бракованных. Проверено десять партий по 100 транзисторов в каждой. Отклоне- Отклонения числа бракованных транзисторов от среднего приведены в таб- таблице Номер партии Отклонение от среднего 1 — 1 2 0 3 1 4 1 5 — 1 6 1 7 0 8 —2 9 2 10 1. Построить распределение выборки, эмпирическую функцию рас- распределения F* (х) и гистограмму выборки. Ответ: p*i —2 1 0,1 — 1 2 0,2 0 2 0,2 1 4 0,4 О 1 0,1 0, х<—2, 0,1, _2<х<-1, 0,3, _1<*<-о, 0,5, 0<*<1, 0,9, 1<х<2, 1, х>2. 4.3. Построить гистограмму по распределению выборки, пред- представленную таблицей Интервалы 0—2 20 2—4 30 4—6 50 Ответ: p'Jh = 0,2/2 = 0,1, p'Jh = 0,15, p\lh = 0,25. 4.4. Отобраны случайно 200 однотипных радиостанций. Время их работы до первого отказа характеризуется таблицей Срок службы радиостанции до пер- первого отказа, ч Количество радиостанций 900—1100 10 1100—1300 120 1300—1500 70 Вычислить выборочные средние т', дисперсию DJ и среднее квад- ратическое отклонение а* срока службы радиостанций до пеового отказа. Ответ: т\ = 1260 ч, D] = 12 400 ч2, а,' = 111,4 ч. 123
4.5. Измерительным прибором, практически не имеющим систе- систематической ошибки, было произведено пять независимых изме- измерений, результаты которых представлены в таблице Номер измерения Ч 1 2781 2 2836 3 2807 4 2763 5 2858 Определить: а) выборочную дисперсию ошибки измерения, если измеряемая величина точно известна и равна 2800; б) выборочное среднее, выборочную дисперсию и ее несмещенную оценку, если точное значение измеряемой величины неизвестно. Ответ: a) Di = 1287,8; б) тх = 2809; D'K = 1206,8;" s2= 1508,5. 4.6. Показать, что оценки аир, рассчитанные по методу момен- моментов для параметров аи Р гамма-распределения определяются выражениями: где Xj — выборочное значение; п — объем выборки. 4.7. Плотность вероятности случайной величины X имеет виД: piix) = тш'т'о» х°~1 ^~х)ь~1>®<х< И бета-распределение), Вычислить по методу моментов оценки аи b параметров распре- распределения а и Ь. Ответ а — т\Ь 4.8. Определить методом максимального правдоподобия оценку параметра р биномиального распределения Рп (*) = C"nPk{\ -РУ-Ь, если в «! независимых испытаниях событие А появилось т1 раз и в пг независимых испытаниях — т2 раз Ответ: р = (т, 4- т2)/(п1 + пг). 4.9. Выборка объемом п' извлечена нз совокупности с показа- показательным распределением pt (x) — \е~и, х>0. Найти оценку Я максимального правдоподобия для параметра Я. Ответ: Я = 1/mJ. 124 4.10. Произведена выборка объемом п = 100 из большой партии однотипных радиоламп. Средний срок службы радиолампы выборки оказался равным 5000 ч. Найти с надежностью 0,95 доверительный интервал для среднего срока службы радиолампы во всей партии, если среднее квадрати- ческое отклонение срока службы составляет 40 ч. Ответ: 4992,16 ч < mt < 5007,84 ч 4.11. Каков должен быть минимальный объем выборки п, что- чтобы с надежностью 0,98 точность опенки математического ожида- ожидания т генеральной совокупности с помощью выборочного среднего была равна 0,2, если среднее квадратическое значение совокуп- совокупности а = 1,5? Ответ: п = 306. 4.12. Средняя квадратическая ошибка радиовысотомера о — = 15 м. Сколько потребуется таких высотомеров, чтобы с надежностью 0,99 ошибка средней высоты т\ была больше—30 м, если ошибки ра- радиовысотомеров имеют нормальное распределение, а систематические ошибки отсутствуют? Ответ: не менее двух. 4.13. Случайный радиосигнал распределен по нормальному за- закону, причем его среднее значение неизвестно, а дисперсия а2 = = 1 В2. Произведено 100 измерений сигнала, по которым определено значение выборочного среднего т"к — 1,5 В. Определить величину доверительной вероятности |3, с которой может быть гарантирована предельная погрешность измерения среднего значения сигнала б = 0,2. Ответ: f> = 0,954. 4.14. Распределение выборки объемом п =10 задано таблицей X', V, - 1 1 2 •г 2 1 2 5 1 Оценить с надежностью 0,95 математическое ожидание /пд случайной величины X, распределенной по нормальному закону, по выборочной средней при помощи доверительного интервала. Ответ: 0,3 < тх < 3,7. 4.15. Произведено десять независимых измерений случайной величины X, подчиненной нормальному закону с неизвестными пара- параметрами тх и ох. Результаты измерений представлены в таблице: Номер измерения, Результат измере- измерения 1 2,5 2 > 3 —2,3 4 1,9 5 —<м 6 2,4 7 2,3 8 —2,5 9 1,5 10 — 1,7 125
Найти оценку ml для математического ожидания и построить доверительный интервал, соответствующий доверительной вероят- вероятности р = 0,95. Ответ: ml = 0,4; —1,18<m < 1,98. 4.16. Произведено 12 измерений напряжения радиосигнала одним и тем же прибором, не имеющим систематической ошибки, причем выборочное среднее квадратическое отклонение s случайных ошибок оказалось равным 0,6 В. Найти точность прибора с надежностью 0,99. Ответ: 0,39 В < о < 1,24 В. 4.17. На контрольных испытаниях 16 радиоламп были опре- определены выборочные характеристики их срока службы, которые ока- оказались равными ml = 30С0 ч и s = 20 ч. Считая, что срок службы каждой лампы является нормальной случайной величиной, определить: а) доверительный интервал для математического ожидания и среднего квадратического отклонения при доверительной вероятности 0,9; б) с какой вероятностью можно утверждать, что абсолютное значение ошибки определения тх не превзойдет 10 ч, а ошибка в определении ох бу?ет меньше 2 ч? Ответ: а) 2991,235 ч < тх < 3008,765 ч, 15,50 4<ov< < 28,74 ч; 6H,93; 0,41. 4.18. На телефонной станции производилась регистрация чис- числа неправильных соединений х, в минуту. Результаты наблюдений приведены в таблице Xi 0 и 17 ) 16 3 10 4 6 6 0 i 7 1 " Требуется: а) определить выборочные характеристики т*х и s2 и проверить выполнение основного условия для распределения Пуассона, б) найти теоретическое распределение Пуассона и про- проверить степень соответствия теоретического и эмпирического ра- распределений по критерию х2 с уровнем значимости а = 0,05, Ответ: a) ml c~ sa=2t т. е. условие для закона Пуассона прак- практически выполняется; б) %2 = 0,2 < у$: о.о5=9,5. 4.19. Произведены испытания 500 радиоприемников на их чув- чувствительность. Данные отклонений чувствительности от номинала указаны в таблице Интервалы чувстви- чувствительности, мкВ -4; -3 6 -3; -2 25 -2; -1 72 -1; 0 133 0, 1 120 1; 2 88 2; 3 46 3, 4 10 Проверить по критерию %2 с уровнем значимости а = 0,01 гипотезу Но о том, что результаты испытаний подчиняются нор- нормальному распределению. Ответ: f = 3,94 < х|: ooi =15,1. 4.20. Испытания 200 радиоламп на их срок службы дали резуль- результаты, приведенные в таблице Срок службы, ч 300— 40A 1 400— ¦^00 :>00— 600 600- 700 33 700— ^00 40 800— 900 5.' 900— 1000 29 1000— 1100 14 1100— 1200 4 Требуется: 1) установить теоретический закон распределения срока службы радиоламп и найти его параметры; 2) написать вы- выражения для плотности вероятности р1 (х) и функции распределения Fl(x); 3) пользуясь критерием уД установить, согласуются ли дан- данные испытаний с гипотезой о распределении случайной величины по избранному теоретическому закону. Ответ: 1) закон распределения нормальный с параметрами т = т*х = 784 ч, о2 = 26 844 ч2, о = 163,8 ч; х— 784 163,8 3) согласуются.
Разделlx СЛУЧАЙНЫЕ ПРОЦЕССЫ 5. ЗАКОНЫ РАСПРЕДЕЛЕНИЯ И МОМЕНТНЫЕ ФУНКЦИИ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Случайный процесс 5@. зависящий от одного действительного парамет- параметра t (времени), считается определенным на интервале времени @, Т), если при произвольном числе п и для любых моментов времени tx, t2, .... tn на этом интервале известна я-мерная плотность распределения вероятностей Рп (?i. 1г" •••• in', h> 'з> •••> *п) или я-мерная характеристическая функция i. h ¦ п л П ехр (IVili) \ = |2...dgn, E.1) где lt = ?(<,), l2 = Kts), ..., ln = l(tn). Плотность распределения вероятностей должна удовлетворять следую- следующим условиям II, 14, 27]: 1) условию положительной определенности: рп (&„ |2 2) условию нормировки: f... ) Рп (§„ Е2, ... t2, .... tn) .2, .... tn) 0; =1; E.2) E.3) 3) условию симметрии: функция /7П(|], ёг> •-•> SnJ 'i (г> ••• 'п) Должна быть симметричной относительно своих аргументов ?,, |а, ..., |„, т. е. не долж- должна изменяться при любой перестановке этих аргументов; 4) условию согласованности: при любом /га < п (Si. ?а 1 ti. /2, .... tm. tm+l tn)dlm + l . ..dln. E.4) Поскольку характеристическая функция E.1) является преобразованием Фурье от соответствующей плотности распределения вероятностей, то для нее также справедливо условие симметрии, а условия нормировки E.3) и согласованности E.4) принимают вид в„ @, 0 0)=1, E.5) ©m (/Pi, /«а /От', 'l> h, ..., tm) = = ®n 0»i, /о Д>т. О, 0; ti, t2 tm). E.6) 128 Многомерные плотности распределения вероятиостей являются наиболее полными характеристиками случайных процессов. Однако в ряде случаев для решения практически важных задач оказывается достаточным рассмот- рассмотрение более простых характеристик, в частности моментных функций [28, 29]. Под моментными функциями случайного процесса i,(t), заданного на не- некотором интервале, понимаются функции mv(t), mVi, ViUi, h) mv v v (^j, t.2, ..., tn), симметричные относительно всех своих аргу- аргументов, определяемые соотношениями E-7) V — oo —oo (/i, Ei. SaJ h, E.8) — oo —oo Моментная функция mVi v v (tt, t2 tn), зависящая от п несов- несовпадающих аргументов tt, tit ..., tn, называется я-мерной начальной момеит- ной функцией v-го (v = Vj + v2 + ... + vn) порядка. Одномерная начальная моментная функция первого порядка оо mx(t) - M{l(t)\ = J lpt(l;t)dl= mM) E.10) —ОО называется математическим ожиданием случайного процесса \{t). Помимо этой характеристики, широко используетси также двумерная начальная мо- ментиая функция второго порядка f X —OO —OO X E.1 называемая ковариациониой функцией случайного процесса ?(<). Зместо момеитных функций mv v v (^, <3' •••> *п) можно рассмат- рассматривать я-мерные центральные моментные функции v-ro порядка, которые оп- определяются соотношением -m^h)] * 5 Зак. 1203 h, t2 — OO —00 mt(tn)]Vn Pn(lu la 6» ••• dln- E.12) 129
Двумерная центральная моментная функция второго порядка со оо ll(h.ta)=M{H(tl)--ml(ti)\[i{ti)-m..(it)]}= j" J" [Ь- — ОО — QO X Ilt — X E-13) называется корреляционной функцией случайного процесса | (г). Полагая в E.13) tx = f2 = /, получаем следующее значение одномерной Центральной моментной функции второго порядка: J" K-m6@]fx )-m| @ = / 0=^@- E.14) Здесь через |0 (/) = | @ — тя^ (/) обозначен центрированный случайный процесс. Таким образом, выражение E.14) определяет дисперсию случайного процесса | (f). Корень квадратный из дисперсии Dt (t) называется средним квадратнческим отклонением о\ (г) случайного процесса \ (г): [; @- тг @I2}. E.15) Если случайный процесс ? @ задан л-мерной характеристической функ- функцией, моментные функции удобно вычислять путем ее дифференцирования. Используя определение характеристической функции E.1) и раскладывая экспоненциальную функцию exp(z) в ряд Тейлора, можно показать, что для «-мерной начальной моментной функции справедливо соотношение [1,14] >V|i('l. h 'n)=l X ... dvnn (i (M. /f2 jvn; ti, tt ...j . E.16) Корреляционные функции Rx (/,), R2 (tu t2), ..., Rn (tt, t3, .... tn) oh- ределяются разложением в ряд Маклорена логарифма многомерных харак- характеристических функций. Можно показать [/,28], что для первых трех корре- корреляционных функций справедливы соотношения: = Щ1 R2(l1,t2) = ш« л (/j. Г2)= M X (t2) — г,,, u tt) - )] X (t3) E 17) = К (h, /2) - ml (/,) mx (t3), R3 (h, t2, t3) = mlibl (<!, t2, t3) - mt (/,) X X R3 (t2, t3) - m, (t2) R2 (^, <s) - mt (t3) R2 (tv t3) + 2m, (tx) m, (?2) m, (fs). По моментным и корреляционным функциям можно восстановить харак- характеристическую функцию и, следовательно, плотность распределения вероят- вероятностей [26]: =.- 1 V = I ). = I 130 в„(М. iv2 =гхр u=1v=I 1> = l v=l )^=l E 18) Для гауссовского случайного процесса, часто встречающегося в различ- различных радиофизических задачах, плотность распределения вероятностей и характеристическая функция определяются формулами [26]: 'V Bл)" Xexpj- — .-хр Здесь тМ ) ^ ) — математическое II R* ), Д = из значений R^ (t j р - т?(/,)Щ/2) - тг (г2)]} ское дополнение элемента A= I V ожидание „ 1 «V vj E.19) E.20) случайной величины gu = :%(t ' 'v)ll ~~ определитель «-го порядка, составленный , tv) корреляционных функций R^(tlt t3) = М{Ц (tt) — " ¦" при /, = t и t2 = tv, A^v — алгебраиче- 'l ('ц1 'v) этого определителя. Важным классом случайных процессов являются стационарные случай- случайные процессы. Случайный процесс | (t) называется стационарным в узком смысле, если все его плотности распределения вероятностей рп A,, |2, ..., %п; tv t3 tn) произвольного порядка п не меняются при одновремен- одновременном сдвиге всех точек tlt t2, ..., tn вдоль оси времени на любое т. Ста- Стационарным в широком смысле называется случайный процесс |(г), ма- математическое ожидание М {1@} которого не зависит от времени, т. е. М {|@> = m|@ = т\* а корреляционная функция R^ (t^, tv) зависит лишь от разности tuv = l '^ — tv | между двумя рассматриваемыми моментами времени. Для гауссовского процесса оба эти понятия стационарности совпа- совпадают, поскольку стационарный гауссовский процесс полностью определяется математическим ожиданием и корреляционной функцией и для его плотности распределения вероятностей и характеристической функции справедливы соотношения Рп (li • 5.21) In , п п 1 1т 2 «v+-f r« 2 2 r^°»°v ¦ (б-22) И- ! 1 и-1 v -1 J -5?D 2 2^(Ец-»>F.- 131
где m — математическое ожидание; а2 = D — R @) — дисперсия процесса 1@; D = || г (т v)|| — определитель «-го порядка, составленный из коэффи- коэффициентов корреляции r eVv> = r С 'ц-'v I) = CT~2 R « 'ц-'v D=^-2 M {Ц (trf-m] [I (tv)-m]}. Применительно к двумерному случаю формулы E.21) и E.22) принимают вид I Р2 (Si. Ы *= 2яа2Т/1 -г* ехр I 'to X ) = ехр I E.23) \m (vt -\-v2) - т = ;г-/,. E.24) Среди различных задач статистической радиотехники весьма часто встре- встречаются задачи, связанные с линейным или нелинейным преобразованием случайных процессов. В ряде случаев успешное их решение связано с возмож- возможностью представления плотностей распределения вероятностей случайных процессов в виде быстро.сходящегося ряда, члены которого выражаются через табулированные функции. Некоторые из таких разложений, базирующихся на представлении соответствующих плотностей распределения в виде ряда по ортогональным полиномам, рассмотрены в работах [6, 26, 30 32, 34]. 2. ПРИМЕРЫ 5.1. Найти одномерную /?,(?; /) и двумерную p2(cltS2; U, Q плот- плотности распределения вероятностей процесса lit) - «е;.;о/ -Ь psinc/, где ш — постоянная угловая частота; а и р — взаимно независи-' мые гауссовские случайные величины с нулевыми математически- математическими ожиданиями та = тр = 0 и дисперсиями Da = D6 = о2. Решение [35]. Случайная величина ? = ?(?) при любом фикси- фиксированном значении t предстччляет собой линейную комбинацию гауссовских случайных величин и в силу этого также является гаус- совской. Таким образом, для определения плотностей распределе- распределения вероятностей p^l; t) и рг{1ъ |2; tlt t2) процесса | (t) необходимо определить его математическое ожидание mi(t) и корреляционную функцию Rs.(ti, to). В соответствии с E.10) = 0, то p sinco/} = = M{a}cos и/ + M{P}siri(o/. Поскольку по условию М {а} = та = 0, УИ{р} = /пв mi(t) = 0. При этом для корреляционной функции E.13) получаем Rl (^i> ^2) = M{[acosw/, + Psincoi1,! X X [acosw/2 -+¦ p 132 Учитывая, что по условию М{а$} = М тельно получаем = 0, оконча- окончаТаким образом, искомые плотности распределения вероятно- вероятностей имеют вид f.2 -ехр "El-i '.тш2 VI — cos2 шт *' "r L 2а2 A — cos2 шт) 5.2. Стационарный случайный процесс с нулевым математическим ожиданием М Ц (/)} = /П| = 0 за дан одномерной плотностью распределения вероятностей p^i) = = /?j(|). Предполагается, что ш0 есть априори известная постоян- постоянная частота, стационарный случайный процесс А (/) может при- принимать только положительные значения, а ф(/) представляет собой случайную фазу, равномерно распределенную на интервале (—л, л) При этом функция рь (I) связана с одномерной плотностью распре- распределения вероятностей рл(Л) процесса A(t) соотношением (см. за- задач) 5.4) Ул2-?2 йА. E.25) Определить обратную зависимость, т. е. найти выражение для Ра{А), при котором одномерная плотность распределения вероят- вероятностей pi(l) = pi(l) будет иметь заданный вид. Решение [401. Производя в E.25) замену переменных: |2 = х~' и /J2 = Х-& получаем уравнение я / 1 \ С тМтН ¦ dX. E.26) Это соотношение относится к классу приводимых к уравнению Абе- Абеля, и для него существуют следующие формулы обращения: х t xjjx)dx х Г u(t)dt .,._ 2 d Г xjjx) 133
Используя E.27), уравнение E.26) можно привести к виду I -г*.т-*4 Р*.\ — I dx к E.28) Переходя в E.28) к старым переменным, получаем выражение, определяющее искомую плотность распределения вероятностей: E.29) Выражение E.29) можно упростить, предварительно вычислив путем интегрирования по частям входящий в него интеграл: Pi (ё) d% I Г/ Л А f f Pi (ё) d%> I Г arccos / А (arccosf 1 Подставляя E.30) в E.29), окончательно находим E.30) 7#=fTde> E-31) оо где pi (I) = dPl(l)ldt Соотношение E.31) определяет одномерную плотность""распре- деления вероятностей рА (А) функции A(t) в стационарном случай- случайном процессе t(t) = A(t)cos[a0t + ф@' с постоянной априори известной частотой соо и случайной фазой ф (/), равномерно распре- распределенной на интервале (—л,, л), при которой мгновенные значения процесса t(t) характеризуются заданной одномерной плотностью распределения вероятностей pi(?). Псдсбиого рода задачи часто встречаются на практике при моде- моделировании случайных колебаний вида t(t) = A(t)cos [и0/ -f- ф(<)] с помощью средств вычислительной техники в процесг-е иссле- исследования статистической динамики различных радиотехнических систем и устройств [40]. 5.3. Найти двумерную плотность распределения вероятностей Рг(?1> ?г) стационарного случайного процесса W) = 4mcos(cV + Ф), где Ат и йH — постоянные амплитуда и угловая частота; ф — слу- случайная начальная фаза, равномерно распределенная на интервале (—я, я). Двумерная характеристическая функция 02 (М> процесса l(t) имеет вид [36] ©2 (М. 1'Щ) = М {exp (/OjIj + /у2|2)} = cos v\). Г34 |, = К^г), т = t2 — ^, Jo(^) — функция Бесселя первого рода нулевого порядка. Решение [37]. В соответствии g E.1) можем налисать Рч (ii. У = — ОО — СХ: Подставляя сюда 92 (/Oj, jv2) и используя теорему сложения для бесселевых функций |38]: где 1 при к = 0, ^2 при fe^i — множитель Неймана, находим L Производя замену переменныхХх = Amvv Ki = Amv2u пользуясь интегральным представлением функций получаем Функции Ч'а*' (г) могут быть выражены через полиномы Чебы- шева Th (z): При атом имеем Рг (Ь. У = 2 где 135
Таким образом, полученное выражение для рг (li, |2) лает разло- разложение двумерной плотности распределения вероятностей гармони- гармонического колебания со случайной начальной фазой в ряд по ортого- ортогональным полиномам Чебышева. 3 ЗАДАЧИ И ОТВЕТЫ 5.1. Найти одномерную плотность распределения вероятностей процесса ?(/) = a -f fit. где аир — взаимно независимые случай- случайные величины с плотностями распределения вероятностей ра (а) и У Ответ [35]: fc I) = ао 5.2. Случайный процесс ? (О задан в виде %(t)-—b-\-Vt. где b — известная постоянная; V— случайная величина, распределен- распределенная по нормальному закону с математическим ожиданием mv и ди- дисперсией Ьв = а,2,. Найти плотность распределения вероятностей рг (?) случайного процесса 1@, его математическое ожидание /П| и дисперсию D\. Ответ. (Е) = рг A; 0 = \i\ov У2я ¦ехр — = alt2. 5.3. Найти одномерную характеристическую функцию гаус- совского процесса 1@, имеющего плотность распределения вероят- вероятностей 1 ¦ехр - Ответ: в; (/и) = ехр (jmv —o2v2). 5.4. Найти одномерную плотность распределения вероятностей случайного сигнала l(t) = Л @ sin [coo/ + ф@1, у которого случайные функции A (t) > 0 и ср (t) предполагаются независимыми в один и тот же момент времени, причем случайная фаза ф (t) считается распределенной равномерно на интервале (—л, п), а огибающая A (t) имеет плотность распределения веро- вероятностей Ра (А). Ответ: ш 136 5.5. Найти плотность распределения вероятностей случайного процесса 1@, указанного в предыдущей задаче, для следующих частных случаев: 1) рл (А) = (Л/о2) ехр (—Л2/2 о2), Л > 0; 2) рА(А)=и; ' °<А<А^ @ при других Л; 3) рА(А) = аехр(—схЛ), Л > 0; ==, 0<Л<Л0, 0 при других Л. 4) Ответ [19, 401: а л ), где •— нулевая функция Макдональда [39]; 0 при других 1. 5.6. Найти -одномерную /?хA) и двумерную й аоичес Нх, |2) плот- плот5.6. Найти одномерную /?хA) дуру ^2 (х, |2) ности распределения вероятностей для гармонического колебания I @ = ЛтС имеющего постоянную амплитуду Ат и угловую частоту соо, но слу- случайную начальную фазу «р, равномерно распределенную на интер- интервале (—я, п). Ответ: pSi> У = lil>^m; ' t? — Лт cos [ cuoT4- arccos Ат)\ —Лт cos Lot—arccos^- 0, Здесь | - I (t), |x = I (tt), U = I (<2), i = ^2 - 137
5.7. Показать, что одномерная характеристическая функция вх (jv) квазидетерминированного стационарного процесса где соо — постоянная частота; ф — начальная фаза, равномерно распределенная на интервале (—л, л); а — случайная величина с плотностью распределения вероятностей рх{а), имеет вид [14] эо = J Jo(av) pi (a) da. Здесь Jo (z) — функция Бесселя первого рода нулевого порядка. Определить одномерные начальные моментные функции чет- четного порядка процесса | (t). Ответ[Щ: М {|2"@} = m2nl(t) =щп1 = l2na> где т2па = М {а2п}. 5.8. Найти плотность распределения вероятностей суммы (раз- (разности) ? (t) = | (t) ± it (t) двух некоррелированных гауссовских стационарных процессов | (t) и ц (t), имеющих математические ожидания и дисперсии, равные соответственно f < = of и Dr, = <¦ Ответ: и тц, . exp — 5.9. Вычислить плотность распределения вероятностей суммы двух независимых случайных процессов: гармонического колебания ti@ = Amcos(<i>0t + ф) с равномерно распределенной случайной фазой ф на интервале (—л, я) и гауссовского стационарного шума | (^) с нулевым математическим ожиданием и дисперсией Di = a2. 2Я Omeem: pt(?)= ' Г exp f — пу2па J L (j-Am cos 202 5.10. Два гауссовских некоррелированных случайных процесса l(t) н ц (t) имеют математические ожидания и дисперсии, равные соответственно гщ и тц, Dt = а\ и D», = ff^. Записать совмест- совместную плотность распределения вероятностей р2 (?,, х\). Ответ: р2 (I, ц) = - 2я ехр — 133 2ст1 '] 5.11. Имеется два случайных процесса t(t) и ц (t) = at(t), где а — постоянный коэффициент. Считая процесс | (t) гауссов- ским с нулевым математическим ожиданием и дисперсией Di = a*, записать совместную плотность распределения вероятностей рг (i,r|) Ответ: р2(?, л) ~ -. е~"/2°г6(т]—аЕ), где б (л-) — дельта-функция. 5.12. Записать совместную плотность распределения вероят- вероятностей для гармонического колебания l(t) = Amcos (ю„/ + Ф) со случайной начальной фазой ф, равномерно распределенной ит интервале (—л, л), и его производной | (t) в тот же момент вред.еьи. 1 Г г 1i- Ответ: р2 (|, |) = - 5.13. Требуется записать совместную плотность распределения вероятностей для стационарного процесса ? (t) и его производной % (t) в один и тот же момент времени. Предполагается, что процесс t(t) является гауссовским, имеет нулевое математическое ожидание и дифференцируемую корреляционную функцию R (т) = о2г (т), где гг2 — дисперсия. Ответ: p2(l, t)= —г" @) exp {- @) 5.14. Вычислить n-мерную центральную моментную функцию п-го порядка для центрированного гауссовского случайного процесса ?0 (^) с нулевым математическим ожиданием и корреляционной функцией ад. м- , Omeem 1191: О, (и- 1)!! при ных при ных нечет п, чет- га. п/2 — сомножителей Здесь символами nfe(t), fe = 2, 3, ..., п, обозначены значения ин- индексов яь (г) = 2, 3, ..., п, полученные в результате ?-й переста- ковки неповторяющихся исходных индексов / = 2, 3, ..., /г и их по- 13Э
Таблица 5.1 Значения символов пи (О л=4 1 — — 2 — — 3 — — — — — — — - п =6 1 2 3 4 5 6 7 8 9 10 И 12 13 14 15 л, (О Лг A) п , (i) я, (О 1 1 1 1 1 1 1 1 1 1 2 2 3 3 3 4 4 4 5 5 5 6 6 6 1 3 3 3 1 2 2 2 2 2 2 2 2 2 2 2 7 -1 1 0 6 4 1 5 6 з 1 5 6 3 4 6 3 4 5 л» @ 5 4 4 5 4 4 5 ' 3 3 4 3 3 4 3 3 я, @ 6 6 5 6 6 5 6 6 5 6 6 4 5 5 4 парной группировки (начиная с л,(г) = 1) и последующего упоря- упорядочивания каждой пары по возрастающим значениям входящих1 в нее индексов. Для примера в табл. 5.1 приведены значения символов кк (г) для п = 4 (выделены жирными линиями) и п = 6 соответственно. 5.15. Используя результат задачи 5.14, определить четырех- четырехмерную центральную моментную функцию четвертого порядка m?,,.,.i(fi, к, h, tt) = M {Uh)Uh)Ut*)UK)} для гауссовского случайного процесса |0(?) с нулевым математи- математическим ожиданием и корреляционной функцией R\{tlt /2). Ответ: М {ЫкП* (tt)UU)UU)} = Яб&, '«Же (Ь, /4) + ДБ (flt t»)Rl(h, U) + Ri(tlt tJRtit» /„). 5.16. Найти общую формулу для одномерных начальных мо- ментных функций гауссовского стационарного процесса \{t) с ну- легым математическим ожиданием и дисперсией D| = of. r\ л/frtv/^i fl-3-5-...-(v—l)oj при четному, Ответ: M {?v (/)} = ] у ' i r [0 при нечетном v. 5.17. Используя результат задачи 5.15, определить трехмерную центральную моментную функцию четвертого порядка Ллл(к, U, ts) = 140 для стационарного гауссовского случайного процесса Ео(/) с нулевым математическим ожиданием и корреляционной функцией Ответ-. MillitdU^lSM^DxRiit* h)+2Rx{tu tJR^, ta). 5.18. Написать двумерную центральную моментную функцию четвертого порядка m|,2 (tlt /2) = М{Ц (^) 120 D)}лля гауосовского стационарного случайного процесса ?,0(t) с нулевым математическим ожиданием и корреляционной функцией RM, tt) = DtfM - /,). Ответ: М {ll(tx)H(tt)} = D\ [1 + 2 г|(/, - t,)\. 5.19. Используя результат задачи 5.17, определить двумер- двумерную центральную моментную функцию четвертого порядка m§.i(<i, к) = M{V0(k) для стационарного гауссовского случайного процесса Е„ (/) с ну- нулевым математическим ожиданием и корреляционной функцией {0(^HB)} Х^^ 5.20. Вычислить трехмерную начальную моментную функцию для стационарного гауссовского случайного процесса ?(/) с мате- математическим ожиданием M{l(t)} — т%{1) и ковариационной функ- функцией Ki(tlt t2). Ответ: М{\ (tx)l (tt)l(H)} = Кфг, к) тг (ts) + Kt(h, h)mt(t2)+ + Ki (к, h) mi (tx) —2 m| (t,) тъ (t2) m-s (U). 5.21- Определить четырехмерную начальную моментную функ- функцию qeiRepToio порядки "?,,!,,д «„ к, ta, Q = /W{t (f,)la2)E (Ь)? (?,)} гауссовского случайного процесса t(t) с математическим ожида- ожиданием М{? (t)} = mi it) и ковариационной функцией Ki(tlt к). Ответ [141: Л*{1(^I (tt)l (ts)l(t,)} = K6 (tu к) Ki(h, h) + + Ki (к, U) K\ (k, U) + K\(k, h) Ki (k, h) - 2 m6 (tj m% (t2) x X mi (ts) mi (t4). 5.22. Найти общую формулу для двумерных центральных мо- ментных функций гауссовского стационарного процесса |0 (t) с нулевым математическим ожиданием и корреляционной функцией R\(t) = о2г(т). Ответ [26]: /.•=0 141
rie N чй= Т Значения коэффициентов Ni<k приведены в табл. 5.2. 5.23. Вычислить трехмерную моментную функцию mlv,K (Tlt т2) = М{® (/•)??(< + Ti)^o (' + *2)} для стационарного гауссовского случайного процесса ?0 (/) с ну- нулевым математическим ожиданием и корреляционной функцией /() = а2г(т). Ответ [26]: М №(t)%(t + rj %(t +x2)} = 5.24. Определить, при каких условиях случайный процесс КО = Amcos(a0t + ф), где Ат, соо — неслучайные, стационарен и нестационарен. Ответ: Процесс l(t) стационарен, если случайная фаза ф рав- равномерно распределена на интервале (—л, я).В противном случае процесс |@ нестационарен. 5.25. Случайные величины А и Ф независимы. Математическое ожидание и дисперсия первой из них равны соответственно тл = 0 и da = 02t вторая подчиняется закону равномерного распределения на интервале (—я, л). Доказать, что случайный процесс b{t) = /4cos(co0 t + Ф) стационарен (соо — неслучайная величина). Ответ: Процесс КО стационарен в широком смысле, так как его математическое ожидание постоянно (тЕ = 0), а корреляционная функция зависит только от разности т = t2 — tx: , ^)=— о2 cos co0 (t2 —tx) =Ri (r). Таблица 5.2 I 0 1 2 3 4 5 6 0 з. 5-3. 1 0 1 0 1 0 1 l —3 —5-3 0 -1 0 • 1 0 -1 0 Значения коэффициенте! 2 2 4-3 6-5-3 0 0 1 0 1 0 1 3 —3 -5-4 k 2 3- 0 0 0 1 0 1 0 6 4 5 4 3 4 2 3 i 0 0 0 0 1 0 1 Nf. ft ¦—5-4 6 0 0 0 0 0 •3-2-1 0 6 0 0 0 0 0 0 6-5-4-3-2-1 142 5.26. Показать, что случайный процесс \(t) = X cos coo/ + У sin сооГ является стационарным в широком смысле только в том случае, ко- когда случайные величины X н Y взаимно не коррелированы и имеют нулевые математические ожидания тх = ту = 0 и равные диспер- дисперсии Dx = Dy — D. 5.27. Определить, при каких условиях случайный процесс где Ат, соо — постоянные, п (t)—шум, стационарен в узком смысле Ответ: Процесс l{t) стационарен, если стационарен шум п (г) и случайная начальная фаза ф распределена равномерно в интер- интервале (—я, л). 6. КОРРЕЛЯЦИОННЫЕ ФУНКЦИИ И СПЕКТРАЛЬНЫЕ ПЛОТНОСТИ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Особо важную роль в теории случайных процессов | (Г) играют матема- математическое ожидание (одномерная моментная функция первого порядка) [I, 6, 14,26, 27,34—36,41,42] CO 77, if) = mx (t) = M{1 @} == 1 Ь —ОО F.1) и корреляционная функция (двумерная центральная моментная функция второго порядка) — CO — CO = Къ (h, ti) -ote (h) ml F.2) Здесь К* (tlt t2) — ковариационная функция, прседставляющая собой дву- двумерную начальную моментную функцию: Къ (к, h) ='от14 (h,h) =M{1 ($i) I (h) I (h) Р.г (li — ОО —CO F-3) 113
Для стационарных случайных процессов формулы F.1)—F.3) принимают внд: Х> ml(t)=M{%(t)}= j lPi(t)dt,=mi; F.4) F.3) CO CO Ox. h)—m~ (tt) ml (t2); » С ). • F.6) Формулы F.1)—F.6) справедливы для действительных случайных про- процессов ?(?). При представлении случайного процесса в виде комплексной функ- функции [14] | (t) = г] (t) + /v (t), где т) @ и v (t) — действительные случай- случайные процессы, отображающие реальную и мнимую составляющие процесса ? @, формулы F.1) — F.3) принимают следующий вид: Ч U); F.1а) F.2a) Oi) mZ. (t2). F .За) Здесь чвечдочкой отмечены комплексно-сопряженные функции. Для стацио- стационарных комплексных случайных процессов \ (t) имеем т~ (t) = tnr)-\- jtnv= m-~; F.4а) а Ъ S ' 2 S I с '' . ь ? 5 b X = t2 — /j. Корреляционные функции /?^ (х) стационарных случайных процессов | (/) обладают следующими свойствами: 1. Функции R, (х) являются четными: /?> (х) = /?t (—т). 2. Абсолютные значения корреляционной функции R* (х) стационар- стационарного случайного процесса | (t) при любом х не могут превышать ее значения при х = 0: I R^ (т) | < #| @) = D5. 3. При неограниченном увеличении т функции /?е(х), как правило, стре- стремятся к нулю, т. е. lim R^ (x) = 0. Помимо корреляционных, весьма часто используются взаимные корреля- корреляционные функции, характеризующие статистическую зависимость между значениями двух случайных процессов в два совпадающих или различных мо- момента времени. Так, к примеру, для двух стационарных случайных процессов | (t) и r\(t) с математическими ожиданиями /п- и тГ) взаимные корреляционные функции имеют вид [л иг)- F.7) Если взаимные корр'еляционные функции F.7) зависят лишь от разности т = t2 — ti, то процессы |(/) и r\(t) называются стационарно связанными и для них справедливо соотношение «6t,(«i.'i) = «E4(t)=/?,iS(-t). F.8) Для количественной характеристики степени линейной зависимости случайных процессов часто используют нормированные корреляционные и взаимные корреляционные функции, которые определяются соответственно формулами (t2) F.9) Здесь DE@ = /?E(?, t) — дисперсия случайного процесса I (t), йц (t) — дисперсия процесса r\(t). Если эти процессы стационарны и стационарно свя- связаны, то и формулы F.9) принимают вид * (т) Я, (т) и. F.10) гы(г) = Rin (T) В большинстве радиотехнических задач нормированные корреляционные функции имеют вид либо монотонно убывающих функций г (Ц = р. (т) (рис. 6.1, а), либо затухающих осциллирующих функцией, например типа /-(х) = p(x)cosco0T (рис. 6.1,6). При этом степень коррелированности слу- случайного процесса можно^ характеризовать так называемым интервалом кор- корреляции СО IР (х) | dx ("|р(т)Ыт. о Г(б.и) Геометрически интервал корреляции равен основанию прямоугольника с вы- высотой р @)= I, площадь которого равна площади, заключенной между кривой |р(т) | при т > 0 и осью абсцисс (рис. 6.1). Величина хк дает ориентировоч- 144 145
Рис. 6.1. Нормированные корреляционные функции L) иое представление о том, на каком интервале времени в среднем имеет место коррелированность между значениями случайного процесса. Весьма распространенной характеристикой стационарного случайного процесса является его спектральная плотность St(co), связанная с ковариа- ковариационной функцией F.6) преобразованием Фурье: Ь\ (i,)i= I К, (т) е' dt. F.12) К. (т) = - .'со. F.13) Аналогично связаны .между собой корреляционная функция /?. (т) и спект- спектральная плотность 5. (со) центрированного стационарного случайного про- процесса lo(t) = l{t) -""m..: (т) е ~/@T rfx = 5. )—2даи| б F.14) 1 ~2л~ F.15) Используя свойство четности ковариационной К<- (т) и корреляционной R, (т) функций, соотношения F.12)—F.15) можно привести к виду S-t (со) ==2 Г К- (т) cos <axdx, о " 143 F.16) (т) = — I Sp (со) cos сот/dco, я J s о оо go (со) =2 J /?| (т) cos coxdi, о (т) = — \ 5|о (со) cos сот/dco. я J о F.17) F.18) F.19) Соотношения F.12)—F.19) называются формулами Винера —Хинчкна. Как следует из F.14) , спектральная плотность S| (со) стационарного слу- случайного процесса l(t) с математическим ожиданием ш^ и ковариационной функцией Kg (т.), определяемая соотношением F.12), отличается от спек- спектральной плотности S. (со) стационарного случайного процесса %(t) с нулевым математическим ожиданием «| = 0 и корреляционной функцией Я|(т), вычисляемой по формуле F.14), лишь наличием дополнительного члена 2я/л?6(со). При пи = 0 оба представления спектральной плотности совпа- совпадают, поэтому в дальнейшем различие в этих характеристиках будем отмечать лишь в случае "необходимости. Отметим основные свойства спектральной плотности стационарного слу- случайного процесса. 1. Спектральная плотность не может иметь отрицательных значении, т. е. 5 (со)>О при любых со. 2. Для вещественных случайных процессов спектральная плотность яв- является четной функцией, т. е. 5(ш) = S(—со). В формулах F.12)—F.19) спектральная плотность S (со) определена для положительных и отрицательных значений круговой частоты, причем 5/м) = S(—со). Если же вместо такого спектра, называемого двухсторон- двухсторонним ввести одностороннюю «физичесиую» спектральную плотность S (/) = [S (со) + S (—со)] = 2 S (со), F 20) отличную от нуля лишь при/ > 0, то формулы F.12)—F.19) можно записать в виде C0S 00 (т)=]" S. @ cos 2nfrdf, , a CO (/) = 4 j R% (т) cos 2nfxdx F.2П F.22) F.23) F.24) Соотношения, аналогичные F.21)—F.24), справедливы и для взаимных личные ^,^«Ж«™«*« р—исТьзуют раз" параметры их спектральных плотностей. Наиболее употребительным из 147
таких параметров является эффективная ширина спектра Дсоэ, определяемая соотношением S@, S (и da . F.25) Помимо этого, находят применение такие параметры, как средняя частота ти = /И(со} спектральной плотности, средний квадрат частоты т2а =¦ = /И{со2) и средняя квадратнческая ширина ош спектральной плотности, соответственно р;шные 00 2 С "гш = /и{м} = Т I »S(M)dco, о оо 2 С m2^ = M{a2t = —— I и2 S(co)*o, о оо 2 Г =/и{со9-}—/И2{(о} =— (м-/лш) F.26) F.27) F.28) При решении задач статистической радиотехники иногда возникает не- необходимость установления непрерывности и дифференцируемости случайных процессов. • Необходимым и достаточным условием непрерывности случай- случайного процесса ? (О в момент t является непрерывность его корреляционной функции R* (t\, t2) при tt = t2 = t. Для стационарного в широком смысле случайного процесса % (t) необходимым и достаточным условием непрерыв- непрерывности является непрерывность его корреляционной функции R^(i) при т = 0. Случайный процесс g (t) называется дифференцируемым в момент вре- времени t в среднеквадратическом, если существует такая случайная функция l-(t) = d\ (t)ldt, называемая производной в среднеквадратическом процесса с {(), для которой lini VI i U-1 —6@1 н Математическое ожидание me (t), ковариационная Ki (tt, t2) и корреляцией, пая Ri(ti, t2) функции производной t (t) случайного процесса | (t) опреде- определяются соотношениями It) т. (t) = M dt ] at2 R^ (h, h) = Ы, W F.29) F.30) F.31) 143 Здесь От| (t), /C| (^i, /2) и /?? (/ь /2) — математическое ожидание, ковариацион- ковариационная и корреляционная функции случайного процесса | (t). Для стационар- стационарного случайного процесса 5 @ соотношения F.29)—F.31) приводятся к виду = 0, F-32) а спектральная плотность Sj (со) производной | (t) определяется формулой S^ (u)) = co2S.c){co)> F.33) где S. (со) — спектральная плотность стационарного случайного процесса Б.@- Взаимные ковариационная K^ih, t2) и корреляционная R^ (tlt t2) функции дифференцируемого в среднеквадратическом случайного процесса 1 (t) и его производной | (t) равны dt, F.34) F.35 Для стационарного случайного процесса | (t) соотношения F.34) и F.35) при нимают вид x, F.36; а взаимная спектральная плотность F.37) Из F.36) н F.37) следует, что значение взаимной корреляционной функции /?tb (х) стационарного случайного процесса | (?) и его производной | (г) в совпадающие моменты времени (т. е. прн т = 0) равно нулю (это означает, что любая днфференцируемая стацнонарная случайная функция ? (t) н ее производная | (t) в совпадающие моменты времени не коррелнрованы), а их взаимная спектральная плотность является чисто мнимой функцией. Для производных Ъ}п) (t) n-ro порядка случайного процесса | (t) спра- справедливы соотношения: а2" * F.38} F.39) Если 5 @ является стационарным случайным процессом, то F.38) и F.39) приводятся к виду а спектральная пло!ность л-й призводной 5<п) О равна S|(n)(M) = co2«5|o(co). 149 F.40; F.41)
Взаимные ковариационные и корреляционные функции fe-й и /-й про- производных |(*'(О и i(/)@ случайного процесса | (/) определяются смешанны- смешанными производными вида к. L tt) F.42) F.43) Для стационарных случайных процессов формулы F.42) и F.43) приводятся к виду = -I)*- (т) =(-!)*¦ dk+l R. (т) F.44) 2. ПРИМЕРЫ 6.1. Определить, обладает ли функция —sh шо|т|1 а>0, со0>0, а 7 свойствами корреляционной функции. Решение. Для ответа на поставленный вопрос необходимо прове- проверить выполнение следующих условий: 1)Я@)>0; 2)Я(т)=Я(-т); 3) | R (т)| sS R@); 4) l' Положительный ответ относительно выполнения условий 1) и 2) следует непосредственно из анализа выражения для /?(т). Для про- проверки выполнения условия 3) представим функцию /?{т) в виде Я(т) = — I е-<а-*">>*(— + 1)— е-< 2 L \ / Так как /?@) = D = а2, для выполнения условия 3) необходимо, что- чтобы выражение в квадратных скобках по модулю не было больше 2. Можно показать, что при а < м0 это условие не выполняется, так как при т->оо и а < соо значение ехр [—(а — а»0)т] неограничен- неограниченно возрастает. В случае а = «0 функция #(т)== 1 и только при а > > со0 условие 3) выполняется. К такому же выводу приводит ана- анализ выражения R(x) при т < 0. В соответствии с формулой Винера — Хилч«иа F-14) имеем со S И = Г J i-tog) (а —ео„J+ео21 [(а+ео„J+<о21 150 Отсюда следует, что условие 4) выполняется также при а > со„. Следовательно, анализируемая функция R(i) обладает всеми свой- свойствами корреляционных функций при а > со0. 6.2. Найти корреляционную функцию /?|(т) и спектральную плотность S|(co) для стационарного случайного сигнала t(t) = ^msin(co0< + ф), где Ат и со0 — постоянные амплитуда и угловая частота; ф — слу- случайная начальная фаза, равномерно распределенная на интервале (—я, я). Решение. По определению корреляционной функции F.5), имеем (х) = х)} - т\. Поскольку то —я я т + ф)^ф = — Г A2msi —л X sin(co01 +соо т +ф) ^ф- cos(a Учитывая, что [17] sin a sin |3 = [cos(a — находим Спектральная плотность вычисляется по формуле Винера—Хин- чина: 00 = Г J 2 т Г \ [е/«Во-со) х _f.e—/((о„+ш) х J I г3 Учитывая, что [17] s- J е'шхйт = б(со), окончательно получаем + со0) + б(со — щ)\. 151
6.3. Определить корреляционную функцию /?|(т) и спектраль- спектральную плотность S| (со) стационарного случайного процесса = Acos(at + Ф), F.45) где Л, со и ф — независимые случайные амплитуда, частота и началь- начальная фаза. Случайные величины Л и со заданы одномерными плот- плотностями распределения вероятностей рл(А) и р„(со), а начальная фаза ф предполагается равномерно распределенной на интервале [—я, я], т.е. ^ф(ф) = 1/?я, —л ^ ф ^ я. Решение [43]. В соответствии с определением F.2) искомая кор- корреляционная функция представляет собой двумерную центральную моментную функцию второго порядка и равна = Af F.46) Поскольку в нашем случае т^Н) = M{%(t)} = 0, то F.46) при- приводится к виду Rl(tu tt) = М{|(Ш^)}- F.47) По условию задачи стационарный случайный процесс ? (t) за- зависит от трех независимых случайных параметров Л, со и ф, в соот- соответствии с чем в F.47) необходимо выполнить усреднение по каж- каждому из этих параметров. Таким образом оо оо оо ) = \ [ J (Л) рш(со) —со —оо —оо со оо оо -± I I I —ос —эс —ос хрм(со) F.48) После несложных преобразований находим следующее выражение для корреляционной функции стационарного случайного процесса F.45): ), x=t2—tv F.49) Полагая в F.49) г = 0, находим дисперсию случайного процес- процесса ?(*): оо Г F.50) Для определения спектральной плотности S|o(co) воспользуем ся соотношением F.19) и запишем корреляционную функцию R^{t) в виде ' F.51) F.52) оо Rt (т) = —^- Г S|o (со) cos coxd г. —оо Сравнивая F.51) с F.49), видим, что S?(co) = S5o(co) = яМ{Л2К(со), т. е. спектральная плотность колебания F.45) с точностью до по стоянного множителя совпадает с одномерной плотностью распреде ления вероятностей случайной частоты этого колебания. Для част- частного случая Л = Ат = const, т. е. для случая стационарного квази- квазигармонического колебания с постоянной амплитудой, случайной час- тогой и статистически независимой от нее случайной начальной фа- фазой, равномерно распределенной на интервале (—я,я), соотношения F.49) и F.52) принимают следующий вид: оо i Ра, (со) S6(o>) = Шгт/2)ра(а>). F.53) F.54) 6.4. Выяснить разницу между спектральными плотностями ста цнонарных случайных процессов ^(t) и ?2(t) с нулевыми математи ческими ожиданиями и корреляционными функциями = а2е-а| = а2е-а|т| cos со0т. Решение. Корреляционная функция R%t (t) является частным случаем корреляционной функции /?|8(т). Поэтому вначале най- найдем спектральную плотность 5|Дсо), соответствующую /?|2(т), а затем из 5|2(со) получим 5|, (со). Согласно формулам Винера—Хинчина имеем оо оо S|2(co)= Г % (т) е-'ах dx= о2 Г e-a|T|-/<oTtoScooTdT = —оо —оо [о Г еах- —оо cos -ат-/<ох Учитывая, что [171 cos соот= (е'ш» T-f e-/t0» т)/2, получаем 6, (со) ^а°2[-^ ю'_ю „ + ¦]• 152 163
a) 6) Рис. 6 2 Спектральные плотиости при различных соотношениях между а и Ша Рассмотрим поведение функции S|2(co). 1. S|,(co) ->- 0 при | ю | -> оо. 2. При 3<о;| < а2 у функции St2(co) нет максимума", она моно- монотонно убывает с ростом | со | (рис. 6.2, а). 3. Если 3«j > а2, функция Sg2 (со) имеет максимум (рис.6.2, 6) в точке 4. При Зсо^ > а2 спектральная плотность %(со) также имеет максимум в точке |com| ~ со0 (рис. 6.2, в). Суммирование спектральных плотностей S%2(a) с различными весами при соответствующим образом выбранных а и соо позволяет аппроксимировать сложные спектральные плотности. Так, к приме- примеру, путем сложения изображенных на рис. 6.2 функций S|s(«b) мож- можно получить спектральные плотности Sj(co) и S2(co) (рис. 6.3), хо- хорошо совпадающие с экспериментально определенными спектралВ- ными плотностями случайных изменений во времени скоростей в ат- атмосферном турбулентном потоке. Полагая в S&, (со) частоту о>0=0, находим спектральную плот- плотность Sg^co), соответствующую корреляционной функции RpJt): S6l((o) = а22а/(а2 + со2). Графики функций /?|,(т) и /?|Дт) и соответствующих им спектраль- спектральных плотностей Ss,(g>) и Sg2(co) приведены на рис. 6.4. Sf(a) .О off Рис. 6.3, Сложные спектральные плотности 154 -Ыд 0 Ыд Ы (Ыд » tt) Рис. 6.4. Корреляционные функции я соответствующие им спектральные плот- плотности 6.5. Найти корреляционную функцию /??(т) стационарного случайного процесса \(t) с нулевым математическим ожиданием и спектральной плотностью (рис. 6.5) N0/2, — со2 sc: со <; —щ, St(co)= N0/2, ojjs^cos^o^, О при других и). Для частного случая сог = 0 определить величину интервала А = 4+i — tk, ПРИ котором значения Eft+1 = ? D+i) и Ift = I D) не коррелированы. Решение. По формуле Винера—Хинчина находим cos сотйсо = 0 (sinco2T -sinco! т). 2лт Так как [17] sin a—sinp= 2 cos """^ sin- 2 ' Рис. 6.5. Равномерная в полосе час- -«, _«»-«/ Z? тот спектральная плотность ыг ы 155
корреляционную функцию можно представить в виде (рис. 6.6, а) /?t(x) = а?р,(т) cosco0t, где 2__ Асо/У,, 1 sin (Лсот/2) Деот/2 Д(о=ш2 —со,, соо =————. Для частного случая a»i = 0 функция корреляции имеет вид (рис. 6.6, б) где = Л/осо2/2я, р.г(т) = (sin со2т)/оJт. Интервал Д = /А+1 — th, при котором значения (отсчеты) |А = = Шк) и ?л+1 = Wh+i) будут не коррелированы, можно определить, приравняв нулю значение нормированной корреляцион- корреляционной функции р2 (Д). В результате находим (зшсогД)/ш2Д = О, Д = я/со2 = где F2 = со2/2я — верхняя граничная частота спектральной плот- плотности 5|(д»). Таким образом, в реализации \(t) длительностью Т содержится N = 77Д = 2F2T некоррелированных отсчетов. C0Sb)ot Рис. 6.6. Корреля- Корреляционные функции узкополосного (а) и широкополосно- широкополосного (б) случайных процессов со спек- спектральными плот- плотностями, равно- равномерными в полосе частот Рис. 6.7. Определение эффективной ширины спектра случайного процесс;) йы йы3 6.6. Спектральная плотность процесса \ (/) имеет вид (рис. 6.7) 10, (со) стационарного случайного со<0. Определить соотношение между эффективной шириной спектра До)э процесса Щ) и шириной его спектральной плотности Дсо на уровне 0,55|@). Решение Эффективная ширина спектра Дсоэ процесса \{t) оп- определяется ссют-ношением Дсо, = - S.@) \ 5| (со) da. После подстановки S|(co) находим 4а а = а Ширина спектральной плотности Дсо на уровне 0,5S|@) находится из формулы = 0,5Ss@)=0,5 —, откуда Дсо = а. Следовательно, Дсоэ/Дсо = Д/э/Д/ = я/2. 3. ЗАДАЧИ И (УГВЕТЫ 6.1. Случайные процессы t{t) и \\(t) заданы своими математи- ческими ожиданиями mi(t) и m^(t), корреляционными Ri{tlt t2) и /?r,(?i, t2) и взаимными корреляционными функциями Определить математическое ожидание щ@ и корреляционную функцию Ri(ti, t2) суммарного (разностного) случайного процесса С @ = Ш)±Ц (t). 157
Ответ: m5 (t) = пь_ (t) ± тп (/); R с (tx, t2) = #s {tx, t2) 6.2. Определить корреляционную функцию #л (tu t2) случай- случайного процесса t\(t) = t(t + T)±t @, где I (t) — случайный процесс с. нулевым математическим ожида- ожиданием и корреляционной функцией R% (tlt t2). Ответ: R^ (/lt t2) = Ri (^ + T, t2 + T) ± #a (t, + T, U) + ± Ri (h, t2 + T) + Rt (tlt t2). Щ ¦ 6.3. Доказать, что для корреляционных и взаимных корреля- корреляционных функций случайных процессов \ (t) и ц (t) справедливы соотношения: <тБ \RiUi, *s) Здесь CTS (/) = ]/Dg (/), ол (/) = ]/D4 (/) — средние квадратичес- кие отклонения процессов Jj (/) и т) (/) соответственно. 6.4. Найти корреляционную функцию сигнала s(t) = Ат g(/)cos(©0/ + 9), где Е (/) — стационарный случайный процесс с нулевым математи- математическим ожиданием и корреляционной функцией #s (т); Ат и щ0 — постоянные величины, а ф — случайная начальная фаза, равномер- равномерно распределенная на интервале (—л, л) и не зависящая от ? (/) Ответ: #s (т) = (A2m'2)Ri (T)cos шот. 6.5. Определить корреляционную функцию комплексного слу- случайного процесса где со; — постоянная угловая частота; -аи а2, ..., ап — взаимно не коррелированшле случайные величины с нулевыми математичес- математическими ожиданиями я1( = 0и дисперсиями Dt. Ответ: ??(т) « ^ " <= 1 / 6.6. Решить задачу 6.5 для случая, когда cos ®«^ + ' Рг sin со; 158 где at и р,- — взаимно не коррелированные случайные величины с нулевыми математическими ожиданиями та. = щ. = 0 и диспер СИЯМИ Da.=Dfi.—Di. i i __ п Ответ: R^ (х) = 2 D, cos(ofT. 6.7. Определить математическое ожидание тц{1) = М {r\(t)} и корреляционную функцию R4(t, т) = М {r\ (t)r\ (t + т)}—т\ (t) периодически нестационарного случайного процесса где /*"(/) — непериодическая детерминированная функция; ?(/) — стационарный случайный процесс с математическим ожиданием mi и корреляционной функцией /?j (т). Ответ: т) = т)/?6(т) 6 8. Заданы два взаимно не коррелированных случайных про- процесса \(t) w x\(t) с нулевыми математическими ожиданиями и кор- корреляционными -функциями R'-dx, t2) и Rn(ti, t2). Доказать, что корреляционная функция произведения этих процессов ? (t) = = t(t)r\ (t) равна произведению корреляционных функций сомно- сомножителей: и) = ад, /,)/?n«i, <«)¦ 6.9. Доказать, что корреляционная функция произведения п взаимно независимых случайных процессов п 4@ =- П ^'@ с нулевыми математическими ожиданиями и корреляниоииыми функ- функциями R%. (tlt /2) равна произведению корреляционных функций сомножителей: 6.10. Пусть из стационарного случайного процесса t(t) с мате- математическим ожиданием M{l(t)} = m| и ковариационной функцией /С|(т) = М{l(t)l(t + %)} выделен отрезок продолжительностью Т, который затем периодически повторяется (рис. 6.8). Определить математическое ожидание тл(/) = M{r\(t)} и ко- ковариационную функцию Kn(t, t) — М {r\(t)r[(t + %)} получаю- получающегося периодически-нестационарного процесса г^)- Ответ [19]: mn(t)=mi,uKi](t, т) 2 MniT)ei 159
где n= 0; —^(Г—x)J, inT ч 6.11. Доказать, что не существует стационарного случайного процесса i (/), корреляционная функция которого R (г) постоянна на каком-то временном интервале (—ти тх) и равна нулю вне его: [О при других т. Ответ: В соответствии с теоремой Винера—Хинчина БЫ) = оо f ^(т)е-'а)хс(т = 2ah1 S1^ "Tt Отсюда следует, что для процесса функция 5(со)для некоторых значений со отрицательна, что противоречит физическому смыслу спектральной плотности 6.12. Определить корреляционную функцию R(x) и спектраль- спектральную плотность S(co) случайного сигнала s(f)= У Ani 4-ф,), — оо<?<оо, где Лт,- и со,- — постоянные амплитуда и угловая частота; фь ф2,...,фл — взаимно независимые случайные начальные фазы, равномерно распределенные на интервале (—л, л). Ответ: R (т) = V — ¦¦ = 1 , cos©; т, Рис. 6.8. Периодиче- Периодически - нестационарный случайный процесс 160 6.13. Определить корреляционную функцию R (т) и спектраль- спектральную плотность S (со) случайного сигнала s(t) Ami sin где со* — постоянная угловая частота; Aml, ..., Amn, (p^ ..., фп — взаимно независимые случайные амплитуды и начальные фазы. Пред- Предполагается, что средние квадраты M{Amt) случайных амплитуд Ami известны, а начальные фазы ф; распределены равномерно на интервале (—я, я) Ответ: 1 : R (т) = V — М {Afni} cosco; т, i S(co) = it ^ ^- 6.14. Найти спектральную плотность Sgo(co) стационарного слу- случайного процесса %(t), корреляционная функция которого равна /?5(т) = ст|ехр(—а2т2). Ответ: S^ (т) --= q exp | — а \ 4а2 6.15. Определить спектральную плотность стационарного слу чайного процесса § (/) с корреляционной функцией Ответ: S^. (со) = ст| 6.16. Решить задачу 6.15 для процесса ?(/) g корреляционной функцией .0, sin шГ/2) I3 cos < = ! Ответ: = я ^ (т?[6"(ю+ сог) -|-б(со — с 6.17. Показать, что физическая спектральная плотность S(J) сигнала s(t)= 6 Зак 1203 161
у которого случайны лишь фазы ф,, причем фг и фь при i Ф k неза- независимы и равномерно распределены на интервале (—я, it), равна S(f)=- i= I 6.18. Найти физическую спектральную плотность случайного процесса W) = Amti(t)cos(o30t + ф), где n(t) — стационарный белый шум с корреляционной функцией Ат — постоянная амплитуда; ф — случайная начальная фаза, равномерно распределенная на интервале (—it, it). Ответ: St(f) = N0A^/2. 6.19. Пусть стационарный гауссовский шум I (t) имеет равномер- равномерную спектральную плотность в полосе шириной F: N ПрИ 0: О при /<О, f>F. Доказать, что значения шума |(/) в моменты времени, отстоящие друг от друга ча величину Д/„ = n/2F,n = 1, 2, 3, ..., статистичес- статистически независимы. Ответ: Корреляционная функция шума !(/) равна Ri(t) — = NF (sin 2nFi)l2nFi и обращается в нуль в точках т = Д/„ = / 6.20. Показать, что для гауссовского стационарного шума с ограниченным, но неравномерным спектром вида \С cos 2я/С при 0 < / < F = 1 /АС, при /<0, f>F, значения ? (/) в моменты времени, отстоящие друг от друга на вели- величину S.tn = 2nC,.n = 1, 2, 3, ..., зависимы. Ответ: Из выражения для корреляционной функции R%{%) = = f 5, (f) cos 2it/xd/ = -^ C0^™^ следует, что tfg (A/n) Ф 0. 6.21. Случайный процесс tj(/) представляет собой последова- последовательность случайно чередующихся отрезков «элементарных» сигна- сигналов ?j(/) и |2@> т-е- имеет вид @ = W)\Ut) Здесь %i(t) и I2(t) — стационарные и стационарно связанные слу- случайные процессы, не зависящие от ?(/); l(t) — случайный двоич- двоичный сигнал, который в любой момент времени / может принимать одно из двух значений ? = 1 или Е- = —1с одинаковыми вероят- вероятностями РA = 1} = Р{1 = —1} = 1/2, причем моменты скач- 162 хов (перемен знака) распределены по закону Пуассона, т. е. вероят- вероятность получения п скачков на временном интервале длительностью т определяется формулой = (vt)" п\ я=0, 1, 2, ... Вычислить корреляционную функцию процесса y\(t) при усло- условии, что математические ожидания процессов ?х(/) и I2(t) равны нулю, а их корреляционные и взаимные корреляционные функции известны и имеют вид % М = м {?,@ ti(t + x)}, Ответ: /?„(т) =^-i-j[l + /?6(T)] [/?6l (т|+ % (x)j + где ^s(t) 6.22. Определить корреляционную функцию R(%) и односто- одностороннюю спектральную плотность 5 (/) случайного сигнала s(t), от- отраженного от объекта, движущегося с относительной скоростью V. Сигнал имеет вид ч(/) = ЛтсозГ2я(/0 + 2V/Xa)t + Ф], где Ат, f0 и ^,0 — постоянные амплитуда, несущая частота и соот- соответствующая этой частоте длина волны электромагнитных колеба- колебаний; ф — случайная начальная фаза, равномерно распределенная на интервале (—л, я). Относительно скорости V делается предпо- предположение, что она представляет собой случайную величину, равномер- равномерно распределенную на интервале (—Vo, Vo), в соответствии с чем ее плотность распределения вероятностей имеет вид Pl(V) = 1/2VO, I V |< IV Ответ: R(x) =- si" cos 2я/0 т; Ат - |/-/ol< 2V0 . 1 Г ГЛ I *f 2 4V0 6.23. Решить задачу 6.22 для случая, когда 1/2 163
Ответ: s(f) = - 6.24. Найти корреляционную функцию R (t, x) колебания \mot +\$(t) + ф„1, где Am и соо — постоянные амплитуда и частота; <p0 — случайная начальная фаза, равномерно распределенная на интервале (—я, я); E(t) и if (t) — стационарные гауссовские случайные функции, мед- медленно меняющиеся по сравнению с колебанием частоты со^и отобра- отображающие законы амплитудной и угловой модуляции процесса § (/). Ответ [14J: г Т) = [M {Е (t) Е (f + т) е-'" I* «+*> - * Щ е~ 6.25. Решить задачу 6.24 для случая амплитудной модуляции, т. е. при условии, что \\>(t) = 0 и 0, — 1/ягдм, — 1/ягдм- Здесь тАм — постоянный коэффициент амплитудной модуля- модуляции, l(t) — стационарный гауссовский случайный процесс с нуле-' вым математическим ожиданием и корреляционной функцией Rx (т)= Ответ 114]: *¦= о coscont. где При тА1Лвъ<С1 (отсутствие амплитудной перемодуляции) /?ам (т) = (^^/2)cosco0t + (Л^^т'дмст^ (г) cos При тдмстх ^> 1 (сильная перемодуляция) 2*--- k{ Г2 164 -^l COS @О 6.26. Решить задачу 6.24 для случая фазовой модуляции, т.е. при условии, что E(t) =s 1 и ip@ = МфмМО. где МФМ — по- постоянный коэффициент фазовой модуляции, i (t) — стационарный гауссовский случайный процесс с нулевым математическим ожида- ожиданием и корреляционной функцией Rx(z) = ст?а(т). А2 А Ответ 114|: /?ФМ (т) = —у- ехр {— \\—rk (т)]} cosco0 т. 6.27. Решить задачу 6.26 при условии, что M2X2(t). Ответ [14|: /?ФМ (т) = (Х^/2)A + 4М|ст?[1 — 4 (т)])-'/2 X X ехр{—MJolfl — rK(x)](l + Ш*о{[\— rl(t)])}cos aox. 6.28. Показать, что корреляционная функция R (г) случай- случайного сигнала s(/) = Лт cos [ш0/ + Q/ + Ф (/)], где Ат, соо, Мфм и Q — постоянные величины; Ф(^) — стацио- стационарный гауссовский случайный процесс с нулевым математическим ожиданием и корреляционной функцией ^ф(т) = афГф(т), имеет вид х хехр{ - )- Гф(т)]} Здесь J0(х) — функция Бесселя первого рода нулевого порядка. 6.29. Решить задачу 6.24 для случая частотной модуляции, т.е. при условии, что E(t) = 1 и Здесь Мчм — постоянная величина; Цг) — стационарный гаус- гауссовский случайный процесс с нулевым математическим ожиданием и корреляционной функцией Rx(%) = ? Ответ [14]: [- (и — v) dvdu cos со,, 6.30. Решить задачу 6.29 для случая, когда корреляционная функция Rx(x) модулирующего стационарного гауссовского шума равна: 1) ) ?'ч, 2) l1' 165
Ответ: ехр — 4-[е—-U т. + а|т|]ЛГГф(К2а|т|)- -L' 6.31. Предположим, что задан узкополосный стационарный слу- случайный процесс W) = где Еф) и щУ) — функции, медленно изменяющиеся по сравне- сравнению с колебанием частоты соо, представляющие собой огибающую и мгновенную случайную фазу колебания ?(<). Корреляционная функция процесса |@ имеет вид /?б(т) = а|г|(т) = a|p|(T)cosuHT. Этот процесс подвергается смешанной амплитудно-угловой модуля- модуляции, в результате чего формируется колебание s(/) = Et(t)E(t)cos\a>0t + if @ + Ф|@1.' Здесь ?@ и if @— медленно изменяющиеся функции, отображаю- отображающие законы амплитудной и угловой модуляции, статистически неза- независимые от Е (/). Определить корреляционную функцию R (t, г) колебания s (<), Ответ [Н]: R(t, x)=±Re [ хМ{Е(t) Е (t +т)е-<[г" "+т> ~ * ((Щ е-'®»т]. 6.32. Решить задачу 6.31 для случая амплитудной модуляции, т.е. при условии, что if(<) == 0, а колебание E(t), отображающее закон амплитудной модуляции, имеет вил П l a —i/mAM. Здесь л.@—стационарный гауссовский случайный процесс "с ну- нулевым математическим ожиданием и корреляционной функцией Rk(t;) = ajta(t). "Предполагается, что начальная фаза ф0 = ф|@) колебания ?@ случайна и равномерно распределена на интервале Ответ [14]: Яам (т) = ЯЕ(т)Л1 {?@Я(* + т)} При тдмсть .< 1 (отсутствие перемодуляции) Ram (т) = la|P|(x) + т2АМст|ст|р|(т)^(г)]со5 соот. 186 При тА{Ло\ > 1 (сильная перемодуляция) Лам (т) = — mAM a| а? р5 (т) | Г— -fare sin r% (т)| X X г* (т) cos соо т. 6.33. Решить задачу 6.31 для случая фазовой модуляции, т. е. при условии, что E(t) =s 1, а колебание \|)(/), отображающее закон фазовой модуляции, имеет вид где Мфм — детерминированный коэффициент фазовой модуляции; ^@ — стационарный гауссовский случайный процесс с нулевым математическим ожиданием и корреляционной функцией Ri,(t) = — а?а(т). Начальная фаза ф0 = ф5 @), как и в задаче 6.32, пред- предполагается случайной и равномерно распределенной на интервале (—it, л). Ответ [14]: Яфм (т) =а| р? (т) ехр {—Mb,Kol [1 — а (т)]} cosco0 т. 6.34. Решить задачу 6.31 для случая частотной модуляции, т.е. при условии, что E(t) = 1, а колебание if(<), отображающее закон частотной модуляции, имеет вид Здесь Л1чм — постоянная величина, a, (tf) — стационарный гауссов- гауссовский случайный процесс с нулевым математическим ожиданием и корреляционной функцией Rx(t) = ст?/\(т). Предполагается, как и ранее, что начальная фаза ф0 = <pg @) колебания \(t) является случайной величиной, равномерно распределенной на интервале (—it, ix). Ответ [14]: I 1 р5(т)ехр j I х и ¦и о о I r\{u—v)dvdu\ cosco0u. 6.35. Определить корреляционную функцию #дм(т) и односто- одностороннюю (со > 0) спектральную плотность Sam(co) амплитудно-мо- дулированного сигнала s@ = 1Ат + MAM4t)kos lcu0t + ф@1, где Ат, Мам и соо — постоянные величины. Предполагается, что Я.@ и ф@ — случайные процессы, заданные уравнениями: dX(t)ldt + аЩ = п».@, 167 = МО- F-55)
Здесь n%{t) и «<p@ — независимые стационарные гауссовские белые шумы с нулевыми математическими ожиданиями и корреля- корреляционными функциями *„*('!, У = ^-Hh-kl Rnv(tlt y = ^L6(^-y. F.56) Начальная фаза ф0 = ф@) считается случайной и равномерно рас- распределенной на интервале (—л, л). Ответ: Q = (co—co0)/a, co>O. Графики функции Sam(co) приведены на рис. 6.9. т=1 I У §1=1 -it -г о z ее Рис. 6.9. Спектраль- Спектральная плотность ампли- тудно - модулирован- модулированного сигнала 168 Рис. 6.10. Спектраль- Спектральная плотность ампли- тудно - модулирован- модулированного сигнала с подав- подавленной несущей - •i / 1/0,5 к b~J -2 ^ 8 / К Из -2 а 6.36. Решить задачу 6.35 для частного случая отсутствия в сигнале s (/) фазовых флуктуации (Мф = 0). Ответ: 5Ам(со)==—— (О— Ир со>0. 6.37. Найти корреляционную функцию #дм(т) и односторон- одностороннюю спектральную плотность 5дм(со) двухполосного амплитудно модулированного сигнала с подавленной несущей s(t) = MA где МАм и соо — постоянные величины; Цг) и q>(?) — случайные процессы, заданные уравнениями F.55) и F.56). Начальная фаза Фо = ф@) считается случайной и равномерно распределенной на интервале (—л, л). Ответ: Я дм (т) = (all 2) e-(a+AV4>'г' з\ 5дм (со) = а cos соо г, (О — Ши > а co>0. Графики функции SflM(co) представлены на рис. 6.10. 6.38. Вычислить корреляционную функцию #фм(т) и одно- одностороннюю спектральную плотность 5фм(со) фазомодулирован- ного сигнала = 4mcoslco0/ + + ф@1. 169
г вф 8 KSWF» Al г\ If/ I \ \ Phc. 6.11. Спектральная плотность фазомодули- рованного сигнала If CJ-CJg где Ат, соо и Мфм — постоянные величины; X(t) и ф(/) — слу- случайные процессы, заданные уравнениями F.55) и F.56). Начальная фаза ф0 = ср(О) случайна и равномерно распределена на интервале (—it, л). Ответ: Ат - cosftHT, a Графики функции Som(co) приведены на рис. 6.11. 6.39. Решить задачу 6.38 для частного случая отсутствия в сиг- сигнале s(t) фазовых флуктуации (Nv = 0). 170 Ответ: А2 _о2 #ФМ (Т) = -Л. е .ф ехр (стф е~а™) cos coo т = cos coo т; ^L е-°ф Г1 + 2 -L(аФ)" e-»«w I L Q = (со— о>о)/а, со>0. 6.40. Определить корреляционную функцию #чм(т) и одно- одностороннюю спектральную плотность 5чм (со) частотно-модулиро- частотно-модулированного сигнала где Ат, т„ и Мчм — постоянные величины; Ц() и ф(/) — слу- случайные процессы, заданные уравнениями F.55) и F.56). Начальная фаза ф„ = ф@) случайна и равномерно распределена на интервале (—it, л) Ответ: = -—е ехр( — т. = е 4a co Графики функции 5чм(со) даны на рис. 6.12. 6.41. Определить корреляционную функцию #афм(т) и одно- одностороннюю спектральную плотность 5афм (со) амплитудно-фазомо- дулированного сигнала — слу- где Мам, Мфм и соо — постоянные величины; Щ) и ф чайные процессы, заданные уравнениями F.55) и F.56). 171
Ответ: (т) =J?L е-°ф [аЗ, е-°<ра|т + о2ф е-<2+°<р>а №] ехр ,-2a5>)e-(I + 1 ,—a|T|)cos що т; j. х „t'o л![(л+Оф)г+°*1 ФД!1 I 4а ©>0. Графики функции 5Афм (со) приведены на рис. 6.13. 6.42. Вычислить корреляционную функцию /?дчм (т) и одно- одностороннюю спектральную плотность Samm (со) амплитудно-частотно- модулированного сигнала s@ - Мam Я. @ cos соо < + Мчм J Я, @ Л +ф @ , где Л1Ам, Л1чм и соо — постоянные величины; I, (() и ip (t) — слу- случайные процессы, заданные уравнениями F.55) и F.56). Начальная фаза ф0 = ф @), как и в предыдущих задачах, предполагается слу- ' чайной и равномерно распределенной на интервале (—it, it). aS4»«») t i -7 -г а Рис. 6.12. Спектраль- Спектральная плотность частот- частотно • модулированного сигнала 172 Рис. 6.13. Спектраль- Спектральная плотность ампли- тудно-фазомодулиро- ванного сигнала в -— -В -2 a Omeem: аА | +A+2рчм)е . + A + 2Рчм) |52чм = 4а со Графики функции 5Ачм(со) представлены на рис 6.14. 6.43. Найти интервал корреляции тк для стационарных случай- случайных процессов l(t) с корреляционными функциями: 1) tfg (г) = а|е-« ^ I; 2) /?g (г) = а| е-а^2; 3) /?6 (т) = а| A -а |т|), |,т|<1/о. _ Ответ: 1) tK = |/а; 2) тк = ]/"it/2a; 3) гк = |/2а. 6.44. Определить эффективную ширину Дсоэ спектра 5|(со) стационарного случайного процесса Е- (t) с корреляционными функ- функциями 1) /?Е(т) = а|(! — о|т|), |т|<!/о; 2) Rt (%) = а|е-«"г'; 3) /?6 (г) = ст|е-»"^. Ответ: 1) Дсоэ = ла; 2) Асоэ = ла/2; 3) Дсоэ = 2\/~па. 173
'1 Am-' л / W те A И 1 й Рис. 6.14. Спектраль- Спектральная плотность амплн- тудно- частотно - мо- модулированного сиг- сигнала -г 6.45. Показать, что для любого стационарного случайного про- процесса Ut) с корреляционной функцией R{%), принимающей только положительные значения, произведение времени корреляции т„ на эффективную ширину спектра Дсоэ равно Дсоэтк = я/2. 6.46. Определить эффективную ширину спектра Дсоэ, среднюю частоту спектральной плотности ты, средний квадрат частоты М{со2} и среднюю квадратическую ширину оы спектральной плот- плотности стационарных случайных процессов с нулевыми математи- математическими ожиданиями и корреляционными функциями: Ао)т/2 2) /?(T)=CT2e-a2x2cosco0T; 3) R (т) = сга е—°ч^1 (cos ы0 т + — sin соо1 т \) . \ <ои ! Ответ: 2) Дсоэ =2\/"па, 3) Да>э = яа. m ст? = Дсо2/12; ~ щ, М {со2} ~ со§ + а2, .~ а2; ш„ = -^L [ 1 arctg _2L| ~ ffll — 2а/ л, L J cof = co§ 6.47. Доказать, что необходимым и достаточным условием непре- непрерывности в среднеквадратическом стационарного случайного про- процесса Е (/) является непрерывность его корреляционной функции /?1 (г) при т = 0. 6.48. Определить, удовлетворяют ли условиям непрерывности и дифференцируемости стационарные случайные процессы | (/) с кор- корреляционными функциями вида ) ) *1т1; 2) /?6(т) = ст2е~а1г1 cosco0t; 174 3) ^6 (т) = ст2 е-а1г1 fcos coo т+ — sin coo | т \) . \ «Во / Ответ: Процессы ^ (/) с корреляционными функциями вида 1) и 2) непрерывны, но не дифференцируемы; процесс \{t) с корреля- корреляционной функцией 3) непрерывен и дифференцируем. 6.49. Случайный процесс ? (/) задан корреляционной функцией —shcoo|T|V a>coo>0. Определить корреляционную функцию Rr\(t) и спектральную плот- плотность St^co) случайного процесса 4снв2(а2 —< !(а-(ВоJ+<в2]{( 6.50. Случайный процесс r\ (t) получается посредством дифферен- дифференцирования стационарного случайного колебания ?(/): П(/) = dl(t)ldt. Определить корреляционную функцию Rr\(t) процесса x\(t) в тех частных случаях, когда функция /?|(т) колебания Jj (/) задана выра- выражениями: | ' (cos соо т + — sin a>0 | т V <в 1) /?6(т)= 2) Rg(T) = ст|е-«" 3) Kg (т) = ст| е-а Ответ: 2) /?^ (т) - а2 ст| 3) /?л (т) = (а2 +а>5)ст — а | т | | e-a — «Во 6.51. Найти спектральную плотность Sn(co) стационарного слу- случайного процесса rj(/) с корреляционной функцией Rr](x)=aoie~a^ [l -6 (см. задачу 6.50). Ответ: S^co) = 2аога>У(аг + со2). График функции Sn(co)/2aCT2 приведен на рис. 6.15. 175
0,8 \0,5 у № \ / / / / -6 -« -г Рис. 6.15. Спектральная плотность производной от стационарного случайного процесса U ы/к 6.52. Показать, что взаимная корреляционная -функция R\i\{i, t2)} стационарного случайного процесса \(t) и его производ- производной r\ (t) — d\(t)ldt удовлетворяет условию tfgnCi. U) = —Rtv(t2, k), т.е. при перемене местами аргументов меняет знак на обратный. 6.53. Определить спектральную плотность Sn (со) случайного процесса r\(t) = al(t) + bdl(t)/dt, где t(t) — стационарный случайный процесс с нулевым математи- математическим ожиданием и корреляционной функцией Ответ: S,(co) = ( 6.54. Определить корреляционную функцию /?л(т) случайного процесса где S (/) — стационарный случайный процесс с нулевым математичес- математическим ожиданием и корреляционной функцией Ri (т). Ответ [19]: R* (т) =* а2/?6 (т) +Bас- Ьг) ах2 (т) + с* d* *\(т) ат4 7. МАРКОВСКИЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ В зависимости от того, непрерывное или дискретное множество значений принимают случайная величина |@ и ее параметр t в области задания про- процесса [О, Т], различают четыре основных вида марковских случайных про- процессов: марковские цепи (дискретный процесс с дискретным временем), мар- марковские последовательности (непрерывный процесс с дискретным временем), 176 дискретный марковский процесс (дискретный процесс с непрерывным вре- временем) и непрерывнозначный марковский процесс (непрерывный процесс с непрерывным временем). Характер временных реализаций перечисленных процессов показан в табл. 7.1. Помимо четырех основных видов, возможны другие, более сложные процессы марковского типа (дискретно-непрерыв- (дискретно-непрерывные, различного характера смешанные и т. д.) [45]. Определяющее свойство всех видов марковских процессов состоит в сле- следующем. Случайный процесс l(t) называется марковским, если для любых п моментов времени tx < t2 < ... < tn из отрезка [О, Т] условная функция распределения «последнего» значения \(tn) при фиксированных значениях ? (h)> i (^2). •••> 5 (fn-i) зависит только от g(*n-i). T- е- ПРИ заданных зна- значениях |t, g2, ..., \п справедливо соотношение = P A (<„) <1„ I !«„_,) = ?„_,}. G.1) Для трех моментов времени ^ > tj > t^ формула G.1) принимает вид Р{Б('|ХБ!15«*)=Б». Б(О) = Б7} = Р{Б('|)<Б11Б(О) = Б/}- <?.2) Поэтому часто говорят, что характерное свойство марковских процессов состоит в следующем: если точно известно состояние марковского процесса в настоящий момент времени (tj), то будущее состояние (при t;) не зависит от прошлого состояния (при tk)- В качестве определения марковского процесса можно также принять следующее соотношение, симметричное относительно времени: P{l(ii)<ii,iUh)<h = Р{Б('|><Б|1Б(О) = 1/}Р{Б(<»Х6»1Б(О) = Б/}- G-3) Такая запись означает, что при фиксированном состоянии процесса в настоя- настоящий момент времени <• будущее (при ti) и прошлое (при t/,) состояния мар- марковского процесса независимы. Укажем еще одно общее и важное свойство марковских процессов: для них эволюция вероятности перехода Р {g (t) < ? | I (t0) = ?„} описывается уравнением вида dP/dt = c#P, G.4) где оФ —некоторый линейный оператор (матрица, дифференциальный опера- оператор и др.). Это позволяет исследовать поведение марковских процессов при помощи хорошо разработанных методов решения соответствующих диффе- дифференциальных уравнений. При этом характер решаемых физических задач может быть различным, в зависимости от заданных начальных и граничных условий для уравнения G.4). Пусть, например, поведение рассматриваемой системы описывается не- некоторым уравнением, удовлетворяющим условию G.2), и заданы начальные условия (состояние системы в начальный момент времени t0). Тогда в от- отсутствие каких-либо ограничений нужно сначала записать уравнение вида G.4) и затем при заданных начальных условиях найти его решение. Если же на поведение системы наложены некоторые ограничения, то для полученного уравнения вида G.4), кроме начальных условий, нужно дополнительно за- задать граничные условия, отражающие эти ограничения. Характер граничных условий может быть разным. Например, точка, отображающая поведение системы, начиная движение из начального состоя- состояния | (?0) = |0, при достижении границы ? (/) = с «поглощается» ею и ра- работа системы прекращается (нарушается) (траектория / на рис. 7.1); точка «отражается» от границы с (траектория 2) и т. д. Если граница с поглощаю- поглощающая, то, помимо отыскания вероятности перехода Р для Ъ, < с, можно инте- интересоваться вероятностью «поглощения» за некоторое время Т или же мате- математическим ожиданием, дисперсией и другими характеристиками времени 7", по истечении которого траектория в первый раз достигнет границы с. 177
w a я ч >o CS H X я и а О О. я я s я •& I «I ¦ьчь I Е 01 а: ¦ — 1 -4- + 1 Т j i i -ь : - — — J g о. с 01 Рис. 7.1. Влияние поглощающей и отражаю- l;(t) щей границы на траекторию процесса Задачи указанного характера имеют математически строгое решение только для марковских процессов. Конкретизируем уравнение G 4) для четырех основных видов марков- марковских процессов [45]. 1. Простая цепь Маркова. Пусть случайный процесс 0(f) может при- принимать конечное число К различных дискретных значений fy, фа, ..., ф„ В некоторые дискретные моменты времени t0 < tx < t% < ... < tN эти зна- значения могут мгновенно изменяться, т. е. имеют место переходы $t -* ф • I. I = 1. К. . ' Характеристическое свойство простой цепи Маркова состоит в том, что вероятность Р (9П) значения процесса 9П в момент времени tn зависит лишь от того, какое значение имел процесс в непосредственно предшествующий ему момент времени tn-.lt и не зависит от значений процесса в более ранние мо- моменты времени, т. е. Р(вп Iе„, et en_!) = P(eniеп_1)=я(в„|en_,). Поэтому для простой цепи Маркова совместные конечномерные плотно- плотности вероятности определяются формулой п ' П ям И=1 G.5) Условные вероятности ^ F^1 ЭA_1) принято называть вероятностями пе- перехода из состояния Э^__, в состояние 6^ за промежуток времени (tn—t„_i). Одна из основных задач в теории простых цепей Маркова следующая? Пусть задано начальное значение процесса при ta и указан вероятностный закон смены соседних значений процесса (т. е заданы соответствующие вероятности перехода). Каким образом можно найти вероятности различных значений процесса в момент времени tn > t0 и, в частности, при п -» оо? Введем следующие обозначения для безусловных и условных вероят- вероятностей: i,k = Y7K, о<ц <n, n =o~~/v. Величина ph (л) есть безусловная вероятность значения Ф/, на n-м шаге (т. е. в момент времени t = tn), a p/, (t0) = р% — начальная вероятность значения Ф/,- Услоиная вероятность я;-/,((г, п) определяет вероятность значения йк при tn, если в более ранний момент времени t < tn значение процесса было равно ®]. 179
Очевидно, что введенные вероятности неотрицательны и удовлетворяют условию нормировки: К 2 Р/.(л)=1, рЛ(л)>0, л =0, N; G.7) 2 я#(ц, л)=1, ям(ц, л)>0, /=1, /С. G-8) й= ] На основании правила полной вероятности для введенных вероятностей можем написать уравнения Маркова: К п}ъ{ц,п , k= \,К, 0<Ц4?т G-9) К л) , К, 0 G.10) Среди простых цепей Маркова выделяют однородные цепи. Они харак- характеризуются тем, что вероятности перехода яд (ц, л) зависят только от раз- иости аргументов, т. е. Л№(Ц. л) = яд (л — ц), я > ц > 0. G.11) Обозначим одношаговые вероятности перехода через njk = я^ A). Полное вероятностное описание простой однородной цепи Маркова дости- достигается заданием начальных вероятностей {р%} и матрицы одношаговых ве- вероятностей перехода Яц Яц я 1К К пк] яК2 я ¦/с/с J G.12) Можно убедиться, что для простой однородной цепи Маркова матрица вероятностей перехода за я шагов равна л-й степени матрицы одношаговых вероятностей л (п) = я", G.13) а матрица вероятностей различных значений процесса определяется урав- уравнением Рт (я) = Рт @) лл. (Т. 14) Здесь Рт (п) — матрица-строка безусловных вероятностей различных зна- значений процесса на л-м шаге, Рт@) = [р?, р\, ..., р°к] — матрица-строка на- начальных вероятностей (при ta). Однородная цепь Маркова, для которой вероятности {рь(п)} = {ph} не зависят от я, называется стационарной, в противном случае цепь назы- называется нестационарной. В общем случае вероятности р^, если они сущест- существуют, находятся в результате предельного перехода G-15) pk = lim pk(n), k = 1, К, П~*оо и называются финальными вероятностями. Однако, если начальные вероят- вероятности {р%} совпадают с соответствующими финальными вероятностями {ph}> то цепь Маркова будет стационарной начиная с t0. 180 Финальные вероятности должны удовлетворять системе К линейных алгебраических уравнений Рк = 1= > и дополнительному условию . k = \, К, G.16) =l, Pk G.17) k—l Суммируя обе части вгех равенств G.16) по k и учитывая соотношение G.8), приходим к тождеству. Поэтому К уравнений G.16) являются линейно зависимыми, и К, финальных вероятностей следует определять из (К —1) уравнений G.16) и уравнения G 17). 2. Дискретный марковский процесс. Пусть по-прежнему случайный процесс Э (t) может принимать только дискретные значения Glf Ф2> •••> ^к1 но смена этих значений происходит не в фиксированные, а в любые случайные моменты времени. Вероятности перехода { ^;ie('o) = ^}> t>t0, G.18) удовлетворяют следующим соотношениям /\ о, 0= 1. > 0, I, } «= 1, Кг G.19) -{ G.20) 1 при i — 'j, при i фi • Кроме этого, для них справедливо уравнение Колмогорова—Чэпмена к лг/(*о. t-\-At)= 2 nlh (*о> t)Khj{l, / + ДО» t>t0, At > 0 . G.21) Характерное свойство рассматриваемых процессов состоит в том, что для малых временных интервалов At вероятность л*,,., того, что значение не изменится, превышает вероятность изменения значения." nhh(t, t + At) = 1 + akk (t)At + o(At), G.22) nkj(t, t + At) => ahj{t) At + o(At), где символом o(At) обозначены члены выше первого порядка малости отно- относительно At, т. е. lim [о (Д^)/Д/] = 0 [45]. Так как вероятности перехода из одного значения в другое неотрица- неотрицательны (а^М) > 0) и для них должно выполняться условие нормировки G.19), то из G.22) получаем ahk U) = - 2 ahj(t)<0, ahj(t)>0. G.23) Подставив G.22) в правую часть уравнения G.21) и перейдя к пределу при At —¦ 0, получим следующую систему линейных дифференциальных уравнений: 1Г л/, (/о, 0= G.24) ft=i где ahj(t) удовлетворяют соотношению G.23). Решение этой системы при на- начальных условиях G.20) дает зависимость вероятностей перехода от времени 181
Дискретный марковский процесс остается марковским и в обратном на- направлении, т. е. наряду с уравнениями G.24), часто называемыми «прямы- «прямыми», справедливы также «обратные» уравнения д К -rrni/Vo. D=— У ath(ta)n.hj(t0. t), Ot0. G-25) Уравнениям G.24) удовлетворяют ие только вероятности перехода, но и безусловные вероятности значений pj (t): G-26) Эти дифференциальные уравнения нужно интегрировать при начальных условиях Pi @ = Pi Со) = р] при / = /„. . G.27) Дискретный марковский процесс называется однородным, если вероят- вероятности перехода я^ (<„, t) зависят только от разности т = t —10: Щ} (to, *) = ntJ (т), т = t — t0. G.28) Из G.22) следует, что для однородного процесса ау(<) = аъ.] постоянные величины и дифференциальные уравнения G.24) упрощаются: d , —— Яц (Т) = Чк) Щк Т) G.29) Если при т-v оо существуют предельные значения вероятностей пере- перехода р) = lim я^(т), которые не зависят от начального состояния, то мар- Т-*оо ковский процесс можно назвать стационарным. Вероятности стационарных значений определяются системой алгебраических уравнений = о, G.30) 3. Марковские последовательности. Пусть случайные величины кп = = k(tn) в некоторые дискретные моменты времени t± < t2 < ¦¦¦ < tn < ... < i^ принимают непрерывное множество возможных значений (см. табл. 7.1). Определяющее свойство марковской последовательности |ХП, п — 1, N} состоит в том, что совместная плотность вероятности рассматриваемых слу- случайных величин выражается через плотность вероятности начального состоя- состояния pi(^i) и плотности вероятности перехода яп (Кп\ kn^i), n = 2, N: п П К- G.31) Укажем некоторые свойства марковских последовательностей: 1) если точно известно значение марковской последовательности в настоящий момент времени, то ее будущее значение не зависит ог предыдущего значения; 2) лю- любая последовательность, взятая из марковской, является также марковской; 3) марковская последовательность остается марковской и в обратном нап- направлении; 4) плотность вероятности перехода удовлетворяет уравнению , п>т>\> G.32) 182 Марковская последовательность называется однородной, если плотности вероятности перехода яп(кп | X;l_i) не зависят от п. Марковская последова- последовательность называется стационарной, если она однородна и все случайные величины Х(п) имеют одну и ту же плотность вероятности: р (Кп) = const(rc). 4. Непрерывнозначный марковский процесс. Область значений непре« Равнозначного процесса X (t) и область его определения [О, Т] есть непрерыв- непрерывные множества. Для непрерывнозначного марковского процесса диффузион- диффузионного типа плотность вероятности перехода я (к, t\k0, t0) = Р lk(t) | X (t0)) и безусловная плотность вероятности р (X, t) удовлетворяют уравнению в частных производных Фоккера—Планка—Колмогорова, которое при- применительно к плотности вероятности р (к, t) имеет вид -r-STrIft<^.0 P (*•')] G-33) или, иначе, где .0=0, G(k, t) = a(k,t)p(X, t)-—— G.34) G.35) «Коэффициенты» сноса а (к, t) и диффузии Ь (к, t) определяются по исход- исходному стохастическому дифференциальному уравнению, описывающему по- поведение рассматриваемой системы, формулами -—M{[k(t+A,t)-k(t)]\k(t)}t G.36) b(k,t)=\im ~-M{lX(t+M)—X(t)f\k't)}>0. G.37) Если стохастическое дифференциальное уравнение имеет вид dkldt = f(k,t) + g (к, t) n(t), k(t0) = Xo, G.38) где f(XJ) и g (k,t) — детерминированные функции своих аргументов, п (t) — гауссовский белый шум с нулевым математическим ожиданием и корреляционной функцией MinVi) n(t2)) = (U2)N06(t2 — tj, G.39) то коэффициенты сноса и диффузии равны a(k,t)=f(k,t)+-j | Hk.t) =>-j G.40) Коэффициент сиоса а (X, f) характеризует среднее значение локальной ско- скорости марковского процесса к (t), а коэффициент диффузии Ь (к, t) — ло- локальную скорость изменения дисперсии приращения. Если плотность вероятности перехода зависит лишь от разности временных аргументов т => t—tt, а коэффициенты а и Ь не зависят от t и ta, то рассматриваемый про- процесс к (t) называется однородным во времени. При начальном условии р(к, t0) = р0 (к) = 8(к — к0) безусловная плотность вероятности p(k,f^. совпадает с плотностью вероятности перехода я (X, t\ Хй, t0). При этом решение уравнения G.33) называется фундаменталь- фундаментальным решением. Для отыскания решения уравнения Фоккера—Планка—Колмогорова G.33) необходимо задать начальное условие Р(к, to) = Ро(к) G-41) 183
d Рис. 7.2. Поглощающие границы и указать граничные условия. Граничные условия могут быть весьма разно- разнообразными и определяются существом физической задачи. Приведем здесь три вида граничных условий. Если случайный процесс k(t) может принимать всевозможные значения от —оо до +оо, то обычно выполняются нулевые граничные условия G ( — 00, t) = G @0, 0=0, ( — 00, t) = р (ОО, t) е. G.42) Пусть случайный процесс к (t) может принимать значения лишь в огра- ограниченном интервале (с, d), причем в точках end помещены отражающие гра- границы (экраны): траектория процесса, достигшая этих экранов, зеркально от- отражается от них. В этом случае должны выполняться условия отражающих границ: G (с, 0 = G (d, t) = 0. G.43) Предположим теперь, что в граничных точках с, d расположены погло- поглощающие экраны: траектория, достигшая границы, поглощается ею и исклю- исключается из дальнейшего рассмотрения. Условие поглощающих границ (экра- (экранов) имеет вид р (с, t)= p (d, t) = 0. G.44) При наличии поглощающих границ можно интересоваться вероятностью* поглощения на одной или обеих границах за некоторое время t. Поскольку аналитическое решение такой задачи оказывается сложным, то при отра- отражающих или поглощающих границах часто ограничиваются вычислением характеристик (моментов) случайного времени Т. по истечении которого траектория процесса, исходящая при t = 0 из некоторой точки к0, заклю- заключенной внутри границ (с < Хо < d), впервые достигнет границ с, d (рис. 7.2). Для однородного во времени диффузионного процесса математическое ожидание 7\ = МШ и дисперсия D = D (Г) случайного времени Т пер- первого достижения границ определяются обыкновенными дифференциальными уравнениями Понтрягина d2 T, G.45) d2 D dD dT, —- ah,) =0. G.46) Решения этих уравнений должны быть неотрицательными: 7\(с, к0, d) > 0, D (с, ^.0, d) > 0 и при поглощающих границах с, d должны удовлетворять условиям J 7\(с, с, d) = 7\ (с, d, й) = О, D (с, с, d) = О (с, d, d) = 0. G.47) 184 При таких граничных условиях решения уравнений G.45) и G.46) да- даются выражениями г й к х0 7\(c,X.,,d)=2 [e-v^dx f—!— еф(г)йг f е-ч><*> d*+ LX 0 с ~ ефB) dz Ге-фи><1* ( f е-ф(дг)^) ,G.48) D(c, A,0,d)= 2 е-ф |е-Фи)^Д^.уеФ(г,,г|е-Ф(.^де-Фи>^ ,G.49) где (г) dz ft(Jt) -1 a G.50) G.51) В заключение укажем, что для одномерного марковского процесса во многих случаях просто находится стационарная плотность вероятности Pat (к) = lim p (к, t), если она существует. Поскольку она не зависит от вре- '->00 ыени, то из G.34) следует, что iJ-^——2a (к) pst (к) = —20. Общее решение этого уравнения известно [45J. При нулевых граничных ус- условиях (G = 0) оно дается выражением я. п <г\ ( G.52) b(k) где С — произвольная постоянная, определяемая из условия нормировки плотности вероятности, %' — произвольная точка интервала, в котором определен процесс k (t). Применительно к стохастическому дифференциальному уравнению G.38), для которого коэффициенты сноса и диффузии определены формулой G.40), решение принимает вид G.53) 185
2 ПРИМЕРЫ 7.1. Однородная цепь Маркова с двумя состояниями. Пусть цепь Маркова {9„, п = 0, 1, 2, ...} имеет два состояния $г и ft2 (рис. 7.3) с вероятностями начального состояния рх@) = р\, /?2@) = р\, где р\ + р\ = 1 • Одношаговые вероятности перехода не зависят от времени и заданы' л„ = 1—а, л12=а, л21=р, л22=1—р. Ис- Исключим из рассмотрения два тривиальных случая: 1) а + Р = 0, т.е. а = р = 0, 2) а + Р = 2, т. е. а = 1, Р = 1. В первом слу- случае не происходит смены состояний (оба состояния являются погло- поглощающими) и система остается в заданном начальном состоянии. Во втором случае смена состояний происходит детерминированно, и если начальное состояние задано, то поведение системы будет не- неслучайным. Требуется найти вероятности перехода nih(п) за п шагав, без- безусловные вероятности ph (n), финальные вероятности рк и относи- относительную долю времени, проведенного системой водном из состояний в течение большого интервала времени. Решение. Применительно к данному примеру в уравнениях G.16) и G.17) нужно положить k = 1, 2: ¦ Pi = Pi A — <*) Pi + Pi = Отсюда находим финальные вероятности Л = р/(о + Р), р, = о/(а + Р). G.54) На основании G.13) получим следующее выражение для матрицы вероятностей перехода за п шагов A-а-Р)" G.55) Так как | 1 — a — р |< 1 при a + Р Ф 0 и a + р ф 2, то A _ a — р)« -> 0 и ¦4* где pk — финальные вероятности. t.« / I Рис. 7.З. Цепь Маркова с двумя состоя- состояниями 186 Рис. 7.4. Одномерные дискретные случайные B(t) блуждания Z 1 О -1 ¦ 1-p-q 1 2 3 п л+/ По формуле G.14) находим безусловные вероятности состояний через п шагов Г_ 0 _0 I _и 1 —а— G.56) оо. получаем прежние значения финальных вероят- Отсюда при п ностей G.54). Вычислим относительную долю времени нахождения системы в каждом из состояний. Для этого формально отождествим состояние Ф, с нулем и состояние Ф2 с единицей. Пусть случайная величина Хп = {0, 1} означает состояние системы в момент времени tn, при- причем интервалы времени между соседними скачками одинаковы, т- е- К+1 — ^n = const, п = 0, 1,2, ... Тогда сумма Xt -\- Х2 + + ••¦ + Хп определяет, сколько раз из общего числа п проведены системой в состоянии 1. Обозначим начальное состояние через / и я„(я) = Р{Хп = 1|Х0 = /}. Известно, что математическое ожидание случайной величины X, принимающей лишь два значения 0 и 1, совпадает с вероятностью Р{Х = 1}. Поэтому М{Х1 + Х2+... + Х„|Х0 = /} = л/8A) + пйB) + ... + яп(п). Среднее значение относительного времени, проведенного си- системой в состоянии 1, очевидно, равно (п7-2A) + л;-2B) + •¦• + + п}2(п)}/п Если предел последовательности {ап} при п -> оо равен а, то предел последовательности (a, + a2 + ••• + alt)ln так- также равен а. Поскольку л;-2 (п) -> р% при п ->¦ оо, то среднее значение относительного • времени, проведенного в состоянии I, стремится к финальной вероятности рг при п -> оо. Аналогично предел сред- среднего значения относительного времени пребывания в состоянии 0 равен pv Финальные вероятности р1 и р% даются формулой G.54). 7.2. Неограниченные случайные блуждания. Частица совершает случайные блуждания вдоль оси 9, представляющие собой однород- однородную цепь Маркова со счетным числом состояний: из любого состоя- состояния / через некоторую единицу времени возможны переходы лишь в три ближайших состояния /+ 1. /'. /— 1 с вероятностями ^.тО) = />. n,tl{\)=\—p — q, Я/,,-1A) = д (рис. 7.4). Пусть начальная координата частицы ft = 0 при t = 0. Нужно найти вероятность того, что в момент времени t = п коорди- 187
ната частицы Gn = k, где k = 0, ±1, ±2, ..., ±п, а также матема- математическое ожидание и дисперсию случайной величины 9П. Решение. Обозначим через Zt изменение координаты частицы в дискретные моменты времени t = 1,2, ..., п, ... Случайная величина Z,- может принимать три значения: I, 0, —1 с вероятностями P{Zt = l} = p, P{Zt = O)=\-p-q. n Через я шагов координата частицы будет равна 9П = 2 %t- Случай- Случайная величина 9П может принимать различные значения k — 0, ±1, ±2, ..., ±«. Чтобы попасть в точку k, частица должна сделать я, положительных шагов, я2 отрицательных шагов и я0 «нулевых», где пх, я2 и я0 — неотрицательные целые числа, удовлетворяющие ра- равенствам пх — п2 — k, п0 — п — (я, + я2). G.57) Вероятность того, что 9n = k, определяется обобщенным бино- биномиальным законом -p—q)n»qn*, G.58) где суммирование производится по всем значениям я0, ях, я2, удов- удовлетворяющим равенствам G.57). Обозначим через тх и Dx математическое ожидание и дисперсию случайной величины Zi (за один шаг): тх — р — q, Dx — р + q — — (р — qJ. Тогда математическое ожидание тп и дисперсия Dn случайной величины 9П будут определяться формулами тп = М {9П } = птъ Dn = М {(9П - птх?} = nDv G.59) В том частном случае, когда р + q = 1 (сохранение предыду- предыдущего состояния не допускается), формула G.58) примет вид /3/0 __ ^\ __ Q(n+k)/2 р(п+к)/2 q{n — k)/2_ 7.3. Дискретный марковский процесс с двумя состояниями (слу- (случайный двоичный сигнал). Пусть процесс 9(^) в любой момент вре- времени может иметь лишь одно из значений ®1 = 1 или ^б^ = — 1 (рис. 7.5), причем вероятность перехода ftj-j-da за малое время Л? равна X&t, а вероятность перехода ¦0'2->->б'1 равна \iht. Известны ве- вероятности начального состояния pt = P{Q(t0) =1} и р% — 1} 1 t HtJ 1 О -1 t Рис. 7.5. Случайный двоичный сигнал 188 Нужно вычислить вероятности перехода nu(t0 t) = P{9 (t) = = ^|в(М = #i}. где #, = 1, о, = _1; t, / = 1, 2, вероятности стационарного состояния рл и р2, а также математическое ожидание и корреляционную функцию процесса 9 (t). Решение. Для данного примера а12 = А,, а21 = [х. Из G.23) на- находим аХ1 = —А,, а22 = —[д, Так как все четыре коэффициента ati — постоянные величины, не зависящие от времени, то процесс 9 (t) является однородным. Дифференциальные уравнения G.24) принимают вид •^-ЯпСо. 0=. —Яя„(*0, t)+\uitt(t0, t), -n(to, (), t = l, 2. G.60) Из условия нормировки G.18) имеем л12 (f0, t) = 1 — дххх (^0, t). Поэтому первое из уравнений G.60) можно записать иначе Общее решение этого линейного неоднородного дифференциального уравнения первого порядка с начальным условием nu(^0, *o) = '> которое следует из G.20), известно: 0= В результате решения системы уравнений G.60) для любых т > 0 получим G.61) Отсюда при т ->- оо находим вероятности стационарных значений рх = ц/(Я, + (i), /?2 = Л/ (Я, + ji). G.62) Эти вероятности можно было легко найти из уравнений G.30). 189
Зная вероятности начальных значений и вероятности перехода, записываем Еыражения для безусловных вероятностей значений процесса Pi(to+s)=pUuW + {l-p4)nn(s) = 1±^ +(/>? —Ц^-)е"а+цM' G.63) p2(t0+s)=(l-p°l)n22(s) +p?ni2(s) = -4 (р\ —ГГ-)х xe-^+Wi, S>Q. На основании определения находим математическое ожидание продесса md(t)=M{Q(t)}=l.Pl(t)-l-p2(t) = +2 G.64) Аналогично вычисляем корреляционную функцию Re(s, т) = М {Q(to+ s)Q{to + s M {Q{t0 M X Si т>0. G.65) Нетрудно убедиться, что в стационарном состоянии те = (И- — Х)/(Х + ц), Лв(т) = 4Яц(Л, + ц)~2ехр[—(Л, + ц)\ т 11 Укажем, что если дискретный марковский процесс Ф (t) имеет два произвольных значения фх и ф2, то его можно выразить через случайный процесс 9 (t) с двумя значениями ±1 при помощи следую- следующего линейного преобразования Ф@ =-j- КФг 1 —Фг) е @1- G.66) 7.4. Линейный процесс рождения и гибели 1461. Рассмотрим дис- дискретный процесс Q(t), в котором допускаются как положительные, так и отрицательные скачки. Этот процесс называется процессом рождения и гибели и определяется следующими постулатами: 1) если в момент времени t система находится в состоянии / (/'— 1. 2,...), то вероятность перехода / -> / + 1 в малом интервале времени (t, t + At) равна 'KjlS.t + o(At); 2) если в момент времени t система на- находится в состоянии / (/ = 1, 2, ...), то вероятность перехода /->- -> / — 1 в интервале времени (t, t -j- ДО равна \i,At + o(At); 3) ве- вероятность перехода в состояние, отличное от двух соседних, есть o(At)\ 4) вероятность сохранения прежнего состояния равна 1 — (Xj + №j)At -f- o(At); 5) состояние / = 0 является поглощаю- 190 щим; если изображающая точка попала в это состояние, то процесс прекращается. Решение. На основании постулатов 1—5 записываем уравнение G.26): ¦^p-=ViPbi@-(^/ + l*/)P/@+l*y+1^+i@. У = 1.2,... G.67) В рассматриваемом конкретном случае, когда состояние / = О является поглощающим, нужно полагать А,_х = Хо — \и0 = 0. По- Поэтому dpo@/* = ViPi(t). G-68) Предполагается, что в начальный (нулевой) момент времени система находится в некотором состоянии /0, 0 < /0 < оо, и, следовательно, начальные условия имеют вид 0 G.69) при 1Ф]0. В общем случае, при произвольных функциях Х} и ц;, решение уравнений G.67) и G.68) оказывается затруднительным [46]. В том частном случае, когда процесс рождения и гибели является линей- линейным: Xj = Xf, \ij = \ij, X = const > 0, \i — const > 0, решения при начальном условии 9 @) = /„ = 1 даются выражениями po(t) = a(t), Pj(t) = [1 - а@Ш - Р(О1Р'-'(О, У = 1. 2,..м где a@ = J . Р@ = " G.71) Математическое ожидание и дисперсия такого линейного про- процесса рождения и гибели равны me(f)=exp[(X— ix) t) А, — —w> —1]. G.72) Из G.70) и G.71) находим вероятность того, что ко времени t система будет находиться в состоянии / = 0 («коллектив» вымирает): po@=-n(e»-»)(--l)/(^e<x-w'-|i). Вероятность того, что «коллектив» когда-нибудь выродится, полу- получаем отсюда предельным переходом при t-*- оо: 1 при X<i ц, цА при А,>ц. Этот результат говорит о том, что «коллектив» вымирает с вероят- вероятностью, равной единице, если интенсивность гибели больше интен- интенсивности рождения. Если же интенсивность рождения больше ин- интенсивности гибели, то вероятность вырождения равна отношению их интенсивностей. 191 limpo(O = G.73)
При начальном условии 0@) = /0 > 1 формулы для математи- математического ожидания и дисперсии получаются умножением правых час- частей выражений G.72) на /0. Вероятность вырождения G.73) по-преж- по-прежнему равна единице при 1<ци равна (рЛУ1 при к > ц 7.5. При различных граничных условиях нужно найти основные характеристики непрерывнозначного марковского процесса Ml), заданного стохастическим дифференциальным уравнением dMdt = — ак + пA), к @) = к0, G.74) где а — постоянная величина, n(t) — гауссовский белый шум с ну- нулевым математическим ожиданием и дельтаобразной корреляцион- корреляционной функцией G.39). Решение. По формулам G.36) и G.37) найдем сначала коэффи- коэффициенты сноса и диффузии для процесса к (I). Отметим, что.решение уравнения G.74) при начальном условии к @) = к0 можно записать в виде еах п (х) dx. G.75) Согласно G.74) приращение процесса за малое время А^ равно t + M X(t+M)—k(l)= J \—ak(x)+n(x)\dx. G.76) Отсюда находим математическое ожидание условного приращения t+M j k{x)dx, а также выражение для коэффициента сноса а (к): t + M а(Х,)=—alim— Г .k(x)dx~ — a ы--о М J t Ha основании G.76) для среднего квадрата условного прираще- приращения можем написать М{ X Поэтому ( + Д1 \k(t + M)-k(t)]*\k(t)} = JJ M{[-ak(x)+n(x)]x [ — ak(y) + n(y)]}dxdy=ail f k(x) dx) +-^L . 12 192 Уравнение Фоккера—Планка—Колмогорова принимает вид — р(к, t) — a —(кр) -| р. G.77) Можно убедиться (например, непосредственной проверкой), что плот ность вероятности перехода n(k,t\k0, 0), являющаяся фундамен- фундаментальным решением уравнения G.77) при заданном начальном уело вии ро(к) = 8(к — ^0), дается выражением п(к, t\k0, 0)= (Х- Это есть нормальная нестационарная плотность вероятности с математическим ожиданием ^оехр(—at) и ят Персией сг2[ 1 — ехр (—2at)]. Полагая t-> oo, получаем стационарною плот- плотность вероятности Если плотность вероятности начальной координаты к0 совпадает со стационарной плотностью вероятности, т. е р., (к) = ри (к), то нетрудно проверить, что переходный процесс отсутствует и стацио- стационарное состояние имеет место, начиная с начального момента вре мени I = 0. Пусть в симметричных точках — с — d = h помещены поглощаю щие границы и ^0 = 0. Согласно формуле G.48) среднее время пер- первого достижения таких границ рассматриваемым процессом G.74) равно /I/O j- J [2<D(*)-l]e"'*d*. о где Ф(х) — интеграл вероятности B.9). Выражение для дисперсии времени первого достижения границ G.49) оказывается более слож- сложным [45] и поэтому не приводится. 3. ЗАДАЧИ И ОТВЕТЫ 7.1. Частица совершает случайные блуждания вдоль прямой 8, представляющие собой однородную цепь Маркова. Координата час- частицы в дискретные моменты времени t = 1, 2, 3, ... меняется на слу- случайную величину Zb принимающую лишь два значения +s и —s с одинаковыми вероятностями, равными 1/2. При 8 = ±2s расположе- расположены отражающие экраны (частица, достигшая этих экранов, в сле- следующий момент времени отражается от них внутрь области (—2s, 2s), изменяя координату соответственно на величину. ±s с вероят- вероятностью 1) (рис. 7.6). Обозначим через 9П координату частицы через п шагов. Возможные значения 9П есть #!==—2s, ^2 = —ь, ¦&*=-(), 7 Зак 1203 193
04 = s, dg = 2s. Записать матрицу одношаговых вероятностей пере- перехода и определить начальные вероятности, при которых процесс бу- будет стационарным, начиная с t = 0. Ответ: г 0 1 0 0 0 ¦ 1/2 0 1/2 0 0 я = 0 1/2 0 1/2 О О 0 1/2 0 1/2 0 0 0 10 Указание. Цепь Маркова будет стационарной, если началь- начальные вероятности совпадают с финальными; последние определяются в результате решения системы алгебраических уравнений G.16), G.17). Для составления матрицы вероятностей перехода целесооб- целесообразно воспользоваться представлением цепи Маркова в виде графа. 7.2. При тех же условиях, что и в предыдущей задаче, и при 6 = = —2s помещен отражающий экран, а при 6 = 2s поглощающий. Требуется: 1) записать матрицу одношаговых вероятностей пе- перехода; 2) определить вероятность поглощения за четыре шага, если в начале частица находилась в состоянии ФзF = 0); 3) вы- вычислить среднее значение времени 7V, по истечении которого час- частица в первый раз «прилипнет» к поглощающему экрану, если в на- начальный момент она находилась в состоянии $t (i — 1,5). Ответ: 1 0 0 От 0 1/2 0 0 1/2 0 1/2 0 0 1/2 0 1/2 0 0 0 1 1) я= 0 1/2 0 0 0 3) = 16, = 15, = 12, = 7, 2)р{>4> = 1/8; Тъъ = 0. Указание. Для вычисления вероятности поглощения можно рассмотреть возможные траектории движения частицы из состояния ¦&з, которые приводят к поглощению за четыре шага. Среднее время до первого достижения поглощающей границы можно определить, решая разностное уравнение T&h — A/2) (Т#й_1 + 7#ft+1) + 1 (k = 2, 3, 4) с граничными условиями 7\>, = 7\>, + 1, Г#5 = 0. B(t) Is s -s г ъ L Рис. 7.6. Случайные блуждания двумя отражающими границами между 194 7.3. Имеется однородная цепь Маркова с двумя состояниями ¦§! и Ф2; одношаговые вероятности перехода равны пи — р, л22 = п. Пусть в реализации этой цепи сохраняются только состояния, соот- соответствующие нечетным моментам времени t = 1, 3, 5, ..., а осталь- остальные исключаются. В результате получается новая цепь Маркова с состояниями ftt и $2. Требуется определить вероятности перехода nit и л22 за один шаг для полученной цепи. Ответ: п\\ = р2 + A — р)A — q), п*22 = q2 + A — p)(l—q). 7.4. По системе связи передаются двоичные символы, которые обозначим ¦§! и Ф2. Каждый переданный символ последовательно проходит через несколько устройств (каскадов), в каждом из кото- которых выходной символ из-за наличия шумов лишь G вероятностью р воспроизводится верно и с вероятностью q = 1 — р переходит в другой. Пусть 6П = {¦§!, да} — символы на выходе п-го устройства. Последовательность символов 60, 6Х, ... есть однородная цепь Мар- Маркова с матрицей вероятностей перехода я = Р Я а р Начальные вероятности на входе системы заданы: р\ — Р{60 = ¦§,}, р\ = Р{60 = §2}. Вычислить вероятность Р{60 = О, | 6П = О, J того, что если на выходе п-го устройства принят символ Ьх, то был передан этот же символ. Ответ: 7.5. Найти матрицы переходных вероятностей для марковской цепи, описывающей следующий процесс Каждая единица выпускае- выпускаемой на производственной линии продукции с вероятностью р идет в брак. Качество каждого отдельного изделия (годно или дефектно) предполагается не зависящим от качества других изделий. Контроль качества изделий состоит в следующем. Пока не появится i небра- небракованных изделий подряд, проверяется каждое выпускаемое изде- изделие (первое правило) Затем из каждых г последующих изделий для проверки равновероятно выбирается лишь одно (второе правило). Если будет обнаружено бракованное изделие, то контроль произво- производится по первому правилу: проверяется каждое изделие вплоть до по- появления г небракованных изделий подряд и т. д. Предполагается, что моменты времени п отсчитываются при проверке каждого изделия по первому правилу и серии из г изделий — по второму. "Пусть состояние $h (k =0, 1, 2, ...) означает, что при контроле по первому правилу последовательно появились k небракованных изделий. Состояние же ¦в'г+1 означает, что проверка осуществляется согласно второй части процедуры (проверяется одно из г изделий) и появилось одно или более небракованных изделий. 195
Ответ 147]: при всех значениях п\ пребывание в состоянии ftft после п + I проверок | пребывание в состоянии ft, после п проверок р при ft==0, / = 0,1, ..., I, i + 1, 1 — р при ? = /+1, у=0, 1, ..., i или k = \ — 0 во всех остальных случаях. 7.6. Частица совершает блуждания между точками, расположен- расположенными на одинаковых расстояниях друг от друга на окружности (об- (общее число точек равно п). При этом в дискретные моменты времени t= 1, 2, 3, ... с вероятностью р частица переходит в соседнюю точку в направлении по часовой стрелке и с вероятностью q — против ча- часовой стрелки (р + q — 1). Если частица в начальный момент t = 0 находится в некотором состоянии Фг (i = 1, я) и на первом шаге по- попадает в состояние ft,-+i (или ftj_i)> то говорят, что она совер- совершает полный цикл блужданий, если в состояние Фг она впервые вер- вернется из состояния Фг_! (или Фг+1). Очевидно, что за полный цикл блужданий частица побывает во всех промежуточных состояниях. Требуется определить вероятность Ро совершения полного цикла блужданий. Ответ [48]: Ро = (р — q)(p" + qn)'(pn — qn) Указание. Можно воспользоваться известными результа- результатами решения задачи о случайных блужданиях между поглощаю- поглощающими экрангми [45]. 7.7. Вычислить корреляционную функцию и спектральную плот- плотность квазислучайного телеграфного сигнала 9(^), принимающего два значения Ох = Ьо и Ь2 = — Ьй с одинаковыми вероятностями Pi = Pi = 1/2, причем смена значений с вероятностями перехода л12 = л21 = q возможна только в фиксированные моменты времени tn = Л ± пТ0, где То = const, я = 0, 1, 2, ..., Д — случайная ве- величина, не зависящая от 9(?) и равномерно распределенная на от- отрезке [0, То] (рис. 7.7). Рассмотреть частный случай q = 0,5. Ответ [451: \—q, (я-1)Г0<|т|<яГ0) я=1, 2, 3, оо Se (©) = 2 i Re (т) cos craix = о ^ $$T0{l-(p-qf] /sincor0/2\a j При . 0, |т|>7-0, 7.8. Вычислить корреляционную функцию и спектральную плот- плотность радиосигнала со случайной начальной фазой при наличии до- дополнительной фазовой манипуляции квазислучайным телеграфным сигналом Q(t): s (t) = /40cos[oHi + Q(t) + фо1- Здесь 9 (t) — ква- квазислучайный телеграфный сигнал, описанный в задаче 7.7, ф0 — случайная начальная фаза, не зависящая от 9 (t) и равномерно рас- распределенная на отрезке [—л, я]. Выяснить отличие в характере спектров при #0 = л/2 и $0 = л. Ответ [45]: Rs(x) = (/4o/2)lcos2#0 + L (К|) sin2#0]cos со0т, где /m (И) = .(/>— ?)" Ss(a>) = (n/2)Al X ^-)], тГ0<т<(т+ [б ((о-(о0)+ б (со +о)оI 1 — 2 (/>—<?) cos (to—соо) -Я) Го sin2 х >-яJ у± = ((о±со0)Г0/2. При #0 = л/2 спектр является сплошным, а дискретным. 7.9. Лайти безусловную вероятность р,(т), т = t — t0, появлений / некоторого случайного события в полуинтервале [t0, t). Случайный процесс 9(?) является дискретным, однородным, прини- принимает только целочисленные значения 0, 1, 2, ..., у, ... и может лишь при = л ЧИСТО числа Л -» i А 0 <¦ 1 г ъ п t Рис. 7.7. Квазислучайный теле- телеграфный сигнал Рис. 7.8. Пуассоновский процесс 196 197
возрастать (рис. 7.8). Начальная вероятность и вероятности перехода заданы: 1 при 7 = 0, 0 при у"= 1, 2, ..., 0 при />7, XAt + o(At) при t = y —1, Л;; (t, t+ At) = \ —Ш — О (At). Рассмотреть также случай неоднородного процесса, когда ин- интенсивность перехода из состояния у — 1 в / зависит от времени, т.е. яЬ1, ,(t, t + At) = k(t)At + o(At). Ответ [461: вероятности р,- определяются законом Пуассона: Pj(x) =-^е-Ч у = 0, 1, 2 x = t-t0, М'о. 0—п-f l*(s)ds] expj -\^{s)ds|, 7 = 0, 1, 2, ... 7.10. Вычислить вероятность pj{t), а также математическое ожи- ожидание и дисперсию для линейного процесса рождения Q(t), задан- заданного следующими условиями: 8 @) = 1, Hj Я-i (^ f + ДО = = Я./Д/ + о (АО, / = 1, 2, 3 / > 0, где к = const. Ответ: р/0 = е~«A — е-")', / = 1, 2, 3, .... те @ = = е", De = е^(е" — 1). Указание: Такой ответ можно получить из результатов ¦. G.70)—G.72) примера 7.4, положив ц = 0. 7.11. Вычислить вероятность pn(t), если начальное значение процесса рождения 8 (t), заданного в задаче 7.10, равно 8@) = = т<С п. Ответ [35]: pn(t) = (т—1)! (л—т)! ~mXt: — e-")"~m. 7.12. Пусть 8 @ — марковский процесс рождения, для которо- которого справедливы следующие соотношения: (б (t t + ДО I 8@ P {событие наступит в (t, t + At) \ 8@ нечетно} = P {событие наступит в (t, t -{- At)\Q(t) четно} = Найти следующие вероятности: Pi@ = Р{Щ нечетно}, ptf) = P{Q(t) четно}. Ответ {47]: рг{0 = - + o(At), + о(М). 198 Указание: Вывести и решить дифференциальные уравнения dPl(t)ldt = - dp 7.13. При тех же условиях, что и в задаче 7.12, найти математи- математическое ожидание процесса 6@- Ответ: Л! {9@} = 7.14. Найти вероятность pn(t), а также математическое ожида- ожидание и дисперсию для линейного процесса гибели, заданного следую- следующими условиями: p°N = Р {8 @) = Л^} = 1, pf = 0 при у < N, «Л У-х(^. ^ + АО = Ц/Д/ + о(А0, ( = N, N-1 0. Ответ: pn(t)= ' е-"^ (l-e-^)w-"t /l!(/V—/1)! 7.15. Используя тот факт, что марковский процесс остается мар- марковским и в обратном направлении, показать, что вероятностные характеристики процесса гибели можно получить из соответствую- соответствующих свойств процесса рождения. Указание. Следует воспользоваться равенством P{4t + т) = i\ Щ = /} } = Р{8@ = 71 8(^+г) = i}P{Q (t + x) = i}. 7.16. Требуется вычислить корреляционную функцию и спект- спектральную плотность радиосигнала со случайной начальной фазой при наличии дополнительной фазовой манипуляции случайным те- телеграфным сигналом: s(i) = A0cos[a0t + 8@ + <pol. Здесь фо — случайная начальная фаза, равномерно распределенная в интервале (—л, л), 8@ — не зависящий от <р0 стационарный сим- симметричный телеграфный сигнал (см. рис. 7.5), принимающий лишь два значения ±^о> 0 <;fro^n с вероятностями рг = р2 = 1/2; ве- вероятности перехода заданы выражениями я„(т) = л22(т) = A + е-*Ц/2, л12 (т) = л21 (т) = A - е-»')/2. Ответ: Rs(x) = (Ag/2)[cos2 *0 ехр(—2A,|T|)sin2 Ss(co) = (яЛ|/2) [б (со—сов)+ 6(<а+ ©„)] cos2 d0 1 , 1 cosco0t, 0 х X W+((o—cooJ U2 + (co+cooJ 19»
В(Щ ''/"/«¦ -Ля I i •лп ¦л» /зг Рис. 7.9. Импульсный случайный процесс с тремя значениями В общем случае спектр является дискретно-сплошным. В частном случае ft,, = л/2 спектр будет сплошным, а при ¦&„ = л — дискрет- дискретным. 7.17. Импульсный случайный процесс Q(t) принимает три зна- значения: 'О1! = 'О',,, ft2 = —Ьо и Фз = 0 (рис. 7.9). Заданы одношаговые вероятности перехода за малое время At: Нужно найти: 1) вероятности стационарных значений, 2) корре-. ляционную функцию процесса Q(t) в стационарном состоянии. Ответ [49]: 1) Pi = ajk^, р^ = a2/fejfe2, рз = feli2 = кз2) «1«2 = 2) 31"'23 ' "¦21^' Г "-23^13 I "r13"r21> («1—«2J—fei fe2 («1+«2)+^2 f«i BЛ.1Й+11 Хе-*г|т| («1 —а2J —fei х—a2J— + a2) 200 а2 \ "Ь ] X 7.18. Из ответа к задаче 7.17 получить результаты примера 7 3 Ответ: нужно положитьр% = />{в(*0) = ^} = О, Я13 = Я23 =0* 1+Л32 = 1, *i= — *, == 1. При этом fe, = 1, ht = ЛЯ = ^12, «2 = Хм, a3 = 0 и Я (т) = ^ 7.19. Рассмотреть следующие три частных случая задачи 7.17: '/ Л12 — Л21 — л. Л31 — Л32 = (г, AM = А13 = р; 3) Я12 = Я21 = О, Я23 = Я13 = р, Яд! = Я32 = |л. Ответ: ¦Р). Ра = ¦ехр[-BЯ+р)|т|]; —Р!т|_ 7.20. Получить выражения плотности вероятности и ковариа- ковариационной функции стационарного импульсного случайного процесса Э (t), заданного следующим образом. Процесс 8(*) представляет со- собой стационарную последовательность прямоугольных импульсов, амплитуды которых взаимно независимы и одинаково распределены с плотностью вероятности р{&) (рис. 7.10). «Интенсивность» пере- перехода из нулевого состояния в любое отличное от нуля состояние рав- равна \i, а интенсивность обратного перехода равна Я. Ответ: -\ где дельта-функция; где /не — J ^/)(^)dd, Do = { Указание: Следует учесть, что вероятности переходов про- процесса 9 (?) совпадают с вероятностями переходов дискретного мар- Рис. 7.10. Импульсный случайный про- процесс 201
ювского процесса с двумя состояниями, а длительности импульсов в интервалов между ними распределены по экспоненциальному за- закону с параметрами X и [i соответственно. 7.21. Пусть последовательность случайных величин {Кп} пред- представляет собой временные отсчеты гауссовского стационарного про- процесса !(/) с экспоненциальной ковариационной функцией k(x) = = Dexp(—а | т |), а > О, т. е. Кп = % (t0 + tn), n = 1, 2, ..., где tt — произвольно взятый начальный момент времени. Убедиться, что полученная последовательность {кп} является марковской. Ответ дает следующая теорема [5]: гауссовский случайный про- процесс будет одновременно и марковским тогда и только тогда, когда при s < / < т коэффициент корреляции процесса r(tu t2) удовлет- удовлетворяет функциональному соотношению r(s, t)r(t, т) = r(s, т). Для гауссовского стационарного процесса с экспоненциальной ковариа- ковариационной функцией это соотношение выполняется. 7.22. Независимые случайные величины Klt K2, ..., Кп, ... имеют соответственно плотности вероятности р (кп) — Рп (К)- Доказать, что случайные величины Xt = Klt X2 = \ + Кг, ¦••» -^n = ^i + + А,2 + ... + Кп, ... образуют марковскую последовательность. Ответ: Хп_1)= p(Xl, X2, 7.23. Из независимых случайных величин Ки А,2, ..., К„, ... об- образованы новые случайные величины Xt = Xj, Xn + сХп_х = = Кп, п > 2, с = const. Показать, что последовательность {Хп} яв- является марковской. Ответ: пп (хп | хъ хъ ..., xn_t) = р (хп — сх^). 7.24. Вычислить корреляционную функцию и спектральную ' плотность радиосигнала с разрывной фазой вида s (/) = = Ао cos [aot + Э(/) + ф0]. В отличие от задачи 7.8 здесь значения О,- есть непрерывные случайные величины, равномерно распределен- распределенные на отрезке [—л, я], причем йг и й;- при i Ф / независимы. Разры- Разрывы (скачки) фазы допускаются только через фиксированный вре- временной интервал То = const, а в пределах каждого интервала дли- длительностью Го фаза остается постоянной. Ответ [45]: Rs(x) = - |т|/Г0)со8ш0т, ,(<a) = (А»/4)Г0 —-i -j; l\ (со—со„)Г Г/2 Г0/2 sin (со + (ои) Го/2 ((й-\-(й,,)Т0/2 7.25. Решить предыдущую задачу 7.24, приняв, что скачки фазы могут происходить не через фиксированный . интервал времени То, а в случайные моменты времени, описываемые законом Пуассона, -«, т>0, 6 = 0, 1, 2,... 202 k\ Ответ [45]: Rs(x) = (Л§/2)е—v V2+(CO-C00J V2+(CO+C0oJ 7.26. Чисто диффузионный случайный процесс v(t) задан сто- стохастическим дифференциальным уравнением dv/dt = n(t), v@)= = v0, где /г(/) — гауссовский белый шум с нулевым математичес- математическим ожиданием и дельтаобразной корреляционной функцией G.39). Записать для процесса v(t) уравнение Фоккера—Планка—Колмо- Фоккера—Планка—Колмогорова и получить его фундаментальное решение. Ответ: р (V, t) — — No p (V, t), д/ у 4 u 5а2 v P(v,t) = - 1 .exp - Nat 7.27. Для чисто диффузионного процесса v(t), описанного в за- задаче 7.26, получить выражения плотностей вероятностей для двух случаев: 1) а точке v = с > v0 расположен отражающий экран; 2) в точке v = с > Уо расположен поглощающий экран. Ответ: Nat •]}- — oo 7.28. Записать уравнение Фоккера—Планка—Колмогорова и получить его фундаментальное решение для случайного процесса "К (t), заданного уравнением dKldt + ц = n(t), Кф) = Ко, где ц — постоянная величина; п (t) — гауссовский белый шум с ковариа- ковариационной функцией G.39). Ответ: д p(K,t)+ ±N0-^p(X,t), I -exp AM J' 7.29. Получить выражение стационарной плотности вероятности марковского случайного процесса K(t), заданного стохастическим дифференциальным уравнением dKldt = — уХ + Л/0/4Л. + > О, 203
где у > 0 — постоянная величина; п (t) — гауссовский белый шум с ковариационной функцией G.39). Ответ: р.,(Л)-(-?-)ехр ( --?- 7.30. Получить выражение стационарной плотности вероятности случайного процесса К (t), заданного стохастическим дифференциаль- дифференциальным уравнением dX/dt = — аХ In (К/т) + aKn(t), К > 0, где а > 0, т > 0 — постоянные величины; n(t) — гауссовский белый шум с ковариационной функцией G.39). 1, o*=aNQ/4, J Ответ: ptt (Л)= ^ ехр [ - о/. У 2л | 7.31. Марковский случайный процесс К (t) задан нелинейным стохастическим дифференциальным уравнением dt Q Kl-2mn(t), —, где tn и Q — постоянные параметры; /г (^) — гауссовский белый шум с ковариационной функцией G.39). Получить выражение ста- стационарной плотности вероятности процесса К (t). Ответ: р„ (К) = —?- f — Y" Г(m) \ Й -' е- 0. Я 0, m > —. 2 7.32. Вычислить среднее время Г, и дисперсию времени D пер- первого достижения поглощающих границ с, d чисто диффузионным процессом v(l), описанным в задаче 7.26, предполагая, что началь- начальное значение процесса v0 находится внутри границ (с < v0 <C d). Ответ: 7\(с, v0, d) = B/N0) (d — v0) (v0 — c), D (c, v0, d) = = (V6Nl)\(d — cL — (d + с — 2oo)«l. 7.33. Определить среднее время 7\ первого достижения одной по- поглощающей границы, расположенной в точке X — d, случайным про- процессом X (t), описанным в задаче 7.28, считая ц>0иХо<A. Я d (d А)/ > 0 () Ответ: Тг (—оо, Я,о, d) = (d — Д 0. г (о ) )ц 7.34. Для случайного процесса X(t) такого же, как и в задаче 7.29, вычислить среднее время 7\ первого достижения поглощающей границы d, если граница с = 0 является отражающей. Начальное значение процесса KQ находится внутри границ @ <; Ко < d). Ответ: 7\ d/a а а / у J л 204 Г 8. ТОЧЕЧНЫЕ И ИМПУЛЬСНЫЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ 1. Пуассоновскин процесс. Последовательность случайных событий (требований, заявок, отказов и др.), присходящнх во времени, можно харак- характеризовать случайными моментами времени их появления /ь B, t3, •¦• на вре- временной оси (рис. 8.1). Такую последовательность событий называют слу- случайным точечным процессом или случайным потоком. Если точки неразли- неразличимы, то вместо них можно рассматривать целочисленный случайный про- процесс N(t) — число событий (точек), появляющихся в полуинтервале @, /], причем в дальнейшем принято N@) = 0 (рис. 8.1). На рис. 8.1, бив изо- изображены также соответственно производная ?(/) = dN(t)/dt, представляю- представляющая собой последовательность дельта-функций в точках /1( /2, t3, ..., и прира- приращение n(t) процесса N(t) за некоторое время в : п (t) = [N (t -\- е) — — N(t)]/B. Имеется два тесно связанных между собой метода описания случайных точечных процессов. Первый из них базируется на рассмотрении случайной последовательности точек во времени, а второй — на анализе целочисленного случайного процесса N(t) [45] Введем интервалы между соседними точками 2, 3, (8.1) где под tB понимается начало отсчета времени, принимаемое за нуль. Тогда последовательность точек можно характеризовать re-мерной плотностью ве- вероятности рп (tj, ..., тп) интервалов между точками или же плотностью ве- вероятности Рп (tlt ..., tn) координат самих точек. Между этими плотностями вероятности имеются очевидные соотношения: ft(f) tn - tn-i). T2. ..., Т„) = ..., Tj + T2 + (8.2) Т„). (8.3) Выражения для плотностей вероят- вероятностей рп и Р„ даже в случае стацио- стационарного точечного процесса, вообще говоря, будут различными, когда начало отсчета времени выбрано произвольно и когда за начало от- отсчета взята какая-либо из выпав- выпавших точек. Вместо этих плотностей вероят- вероятностей можно рассматривать цело- целочисленный случайный процесс N(t). Если ti — координата /-й из выпав- выпавших точек (ti < <2 < ... < tt < ...), то N(t) = 0 тогда и только тогда; Рис. 8.1. Целочисленный случайный процесс (а), его производная (б) и приращение процесса (в) V/ t 205
когда тх > t, и N(t)<n тогда и только тогда, когда Tj + т2 + ... + + т„ > /, т. е. P(W(f) = 0) = Р{т, > t), P{N(t) < п}= Р{т, + т2 + ... + т„ > <}, п = 1, 2, 3, ... Следовательно, если известно распределение целочисленного случайного про- процесса N(t), то можно найти одномерные и многомерные плотности вероят- вероятности случайных величин тх, т2, т3 и наоборот. Основой для формирования различных точечных процессов является простейший пуассоновский поток. Целочисленный простейший пуассоновский точечный процесс {N (t), 0 < / < + оо} определяется тремя свойствами. 1. Он ординарен, т. е. вероятность наступления более одного события на любом малом интервале времени At имеет более высокий порядок малости, чем At: P{N(t + At) — N(t) = I) = P{N(At) = 1} = \At + o(Ai), (8.5) P{N(t+ At)- N(t) > 1}= P{N(At) > 1} = o(At), . (8.6) где v — некоторая положительная величина, имеющая размерность, обрат- обратную времени [см. (8.13)]. Следствием этих двух соотношений является ра- равенство P{N(t + ДО — #@ = 0} = P{N(At) = 0} = 1 —vAt+ o(Ai). (8.7) 2. Процесс стационарен, т. е. его вероятностные характеристики не изме- изменяются при сдвиге всех точек вдоль оси времени на произвольную, но одну и ту же величину А. 3. Он имеет независимые приращения (значения) на неперекрывающихся интервалах времени (отсутствие последействия). На основании этих свойств можно показать [45], что вероятность Pk(i) наличия k точек в полуинтервале @ t] определяется законом Пуассона: Ph{t) = (vt)ke-vt/k\, k = 0, I, 2 t>0. (8.8) Из этой формулы следует, что вероятность отсутствия точек (k = 0) на каком- либо полуинтервале х Р0(т) = exp (-vt), (8.9) а вероятность наличия одной точки (k = 1) Pt(T) = vt exp (—vt) (8.10) Если в (8.9) и (8.10) положить т = At, гдеД/ — малая величина, удовлет- удовлетворяющая условию vAt С 1, то получим P0(At) Cr I — \At + A/2)\ЦА1)г, Pi(At) CZ vAt — v2(AtJ. Эти равенства согласукнся со свойствами (8.7) и (8.5) пуассоновского закона. Кроме того, из второго равенства имеем v = lim P, (Kt)IAt. (811) Математическое ожидание т и дисперсия D закона Пуассона равны друг другу: m= D = vt. (8.12) Поскольку т определяет среднее число точек, выпавших в полуинтервале (О, t], то параметр v= mlt (8.13) можно трактовать как среднее число точек, приходящихся на единичный интервал времени. Поэтому v часто называют параметром интенсивности пу- ассоиовского потока. 206 Плотность вероятности времени /ц появления k-й точки определяется гамма-распределением (с параметрами k и v): Ptft@ = ve-vt(v0e~'/(fe-l)l, k = \, 2, 3, ..., Математическое ожидание и дисперсия случайного времени (8.14) (8.15) Последовательность т,-, i = 1, 2, 3, ..., временных интервалов между соседними точками пуассоновского потока является последовательностью независимых и одинаково распределенных случайных величин с экспонен- экспоненциальной плотностью вероятности р(т) = ve" т > 0. (8.16) Математическое ожидание и дисперсия интервалов между соседними точками соответственно равны тх = 1/v, DT = 1/v2. Справедливо обратное утверждение: если имеется последовательность независимых случайных величин т.ь i = 1, 2, 3, .. , имеющих одну и ту же экспоненциальную плотность вероятности (8.16), то соответствующий ей то- точечный процесс, оказывается пуассоновским. Пуассоновский поток точек можно получить следующим образом. Пусть случайным и независимым образом во временном полуинтервале (О, Т] раз- размещено п точек, причем вероятность попадания какой-либо точки на малый интервал At е (О, Т) равна Р= AtlT < 1. Тогда при Т -> оо, п -» оо, nIT —> v вероятность наличия k точек на полуинтервале длиной ?е (О, Т] будет определяться законом Пуассона (8.8). Известно несколько различных обобщений процесса Пуассона. Укажем здесь два таких обобщения: неоднородный пуассоновский процесс и про- профильтрованный пузссоновский процесс. Пуассоновский процесс называется неоднородным, если его параметр интенсивности зависит от времени v (t). Для такого процесса вероятность на- наличия k точек в полуинтервале (О,?] дается неоднородным законом Пуассона: = -М Г v(T)dT expj -J v(T)dT j No 'No ' k > 1. (8.17) При v = const (однородный процесс) этот закон переходит в обычный закон Пуассона (8.8). Математическое ожидание и дисперсия неоднородного про- процесса Пуассона равны друг другу: (8.18) 0 Профильтрованный пуассоновский процесс {%{t), t > 0}, часто называе- называемый дробовым шумом, можно представить в виде 1@= N@ 2 (8-19) . '= i Здесь {Л^), t > 0} — в общем случае неоднородный пуассоновский поток с интенсивностью v(^), {аг} — последовательность взаимно независимых и одинаково распределенных случайных величин, не зависящая от (Л^(^), t > 0), h(t, т, а) — детерминированная функция трех вещественных пере- переменных. Во многих практических задачах отдельные величины в записи (8.19) допускают следующую интерпретацию: t% — время появления случайного события, аг- — «амплитуда» элементарного сигнала, связанного с этим собы- событием, h (t, t{, Oj) — обусловленное этим событием значение элементарного 207
сигнала в момент времени t и \(t)~значение при t суммы элементарных сиг- сигналов, обусловленных событиями осуществившимися во временном полуин- полуинтервале @, /]. Для задания профильтрованного пуассоновского процесса необходимо указать: 1) интенсивность v (t) порождающего пуассоновского потока, 2) общее для всех случайных величин {щ} вероятностное распределение и 3) конкретный вид функции h (t, т, а). Если выполняется условие M{h?(t, т, а)} < оо для всех т, (8.20) то математическое ожидание, дисперсия и корреляционная функция про- профильтрованного пуассоновского процесса определяются формулами: i m%(t) =J*v(t) M {h (t, т, а)} dx, о t O|@=Jv(t)«M{/i2(^. t, a)}dx, (8.21) ' (8.22) v(x)M{h(t1, т, а)А(/8>т„а)} dx. (8.23) При вычислении этих и других характеристик точечных и импульсных случайных процессов вида (8.19), представляющих собой сумму случайного числа взаимно независимых случайных величин, используется тождество Вальда. Пусть {Xi} — произвольные случайные величины с одинаковыми мате- математическими ожиданиями М{Х,} = тх и W — случайная величина, прини- принимающая неотрицательные целочисленные значения 1, 2, ... и ие зависящая от Xi при ( ^ N. Тогда для суммы N справедливо равенство Вальда: ту = M{Y} = mxM{N). (8.24) (8.25) Кроме того, если случайные величины А",- не коррелированы и имеют одинако- одинаковые дисперсии М{(Х( — тхJ\ = Dx, то DXM{N). (8.26) В частном случае, когда W (f) есть простой пуассоновский поток (8.8), в этих формулах иужио положить M{N(t)} = vt, M{N2(t)} = v/ A + vt). (8.27) Частный вид процесса (8.19), часто применяемый в качестве модели стационарного дробового шума, описывается выражением 00 ?@ = 2 А1^(*~иЛ1), — оо<?<оо. (8.28) (= —оо Здесь {/4;} и {т;} — взаимно независимые случайные амплитуды и длитель- длительности импульсов, имеющие одинаковые для всех i плотности вероятности р(А) и р(т) соответственно, t-t — случайное время появления каждого из элементарных импульсов, ие зависящее от {Л;} и {т,} и описываемое про- простым пуассоиовским потоком с параметром интенсивности v. 208 Рис. 8.2. Случайная последовательность неперекрывающихся (а) и перекрываю- перекрывающихся (б) импульсов Если M{At №(t — 'j, т;)} < оо для всех i, то математическое ожида- ожидание, дисперсия и корреляционная функция определяются формулами Кемп- белла (см. пример 8.6): j Ai | h (и, Tj) du I , xt) du ) = vM|/4f J h(u, Xi)h(u+\x\. xt) du \ . (8.29) (8.30) (8.31) Были указаны импульсные процессы, базирующиеся на пуассоновском потоке. Приведем справочные сведения для импульсных процессов более общего характера. 2. Спектральная плотность случайного импульсного процесса [15]. Слу- Случайный импульсный процесс | (/) представляет собой последовательность импульсов в общем случае разной формы, следующих друг за другом через некоторые промежутки времени. Если форма импульсов известна, то случай- случайными могут быть отдельные параметры импульсов: высота или «амплитуда» Av, длительность tv, время появления tv и др. (рис. 8.2). Случайные импульсы могут быть неперекрывающимися и перекрываю- перекрывающимися. Под перекрыванием импульсов понимается возможность полного или частичного наложения разных импульсов друг иа друга. Если в случай- случайной импульсной последовательности никакие два импульса ие налагаются друг на друга, то это последовательность неперекрывающихся импульсов. В последовательности неперекрывающихся импульсов отдельные импульсы должны иметь конечную длительность xv. Условие отсутствия перекрывания импульсов можно определить неравенством v = 0, 1, 2, ... (8.32) Очевидно, что если неперекрывающиеся импульсы воздействуют иа ка- какую-либо инерционную систему, то иа выходе системы, как правило, полу- получаются перекрывающиеся импульсы. В случайной последовательности пе- перекрывающихся импульсов условие (8.32) ие выполняется для всех или части импульсов, т. е. / -4-т ~> / 209
При рассмотрении случайных импульсных процессов форму отдельных импульсов часто предполагают известной. При этом исследование непере- неперекрывающихся импульсов обычно сводится к решению двух задач: нахожде- нахождению плотностей вероятностей для отдельных параметров импульсов («амп- («амплитуд», длительностей, времени появления) и вычислению спектральной плотности (ковариационной функции). При исследовании перекрывающихся импульсов, кроме того, часто рас- рассматривают еще третью задачу — вычисление плотностей вероятностей для мгновенных значений результирующего процесса, представляющего сумму налагающихся импульсов. Однако эта задача в дальнейшем не рассматри- рассматривается, так как имеется очень мало простых решений ее. Решение первой задачи обычно связано с физическим анализом конкрет- конкретного устройства или механизма, генерирующего случайную последователь- последовательность импульсов. В дальнейшем эта задача также не рассматривается. Пред- Предполагается, что необходимые вероятностные характеристики заранее извест- известны. Спектральную плотность стационарной последовательности взаимно независимых неперекрывающихся импульсов следует вычнслять-по формуле S(co)= lim — Т—Ь-OQ ' где Т/2 FT(ia»= dt j -Г/2 (8.33) (8.34) — спектральная функция усеченной реализации импульсного случайного процесса ? (t), т. е. реализации на конечном временном интервале (—Т/2, Т/2) относительно произвольно взятого начала отсчета времени. Пусть усеченная реализация 1A) содержит п импульсов. Пронумеруем от- отдельные импульсы в порядке их следования на оси времени. Если tv — мо- момент времени начала v-ro импульса, то —Т/2 < t0 < /j < /2 < ... < <п_, < <tn < Т/2. Отметим тот существенный факт, что длительность интервала Т за- зависит от п. т. е. Т— Тп. Если через flv = tv+ t~tv обозначить длительность п временного интервала между двумя соседними импульсами, то Тп si. 2 ft v=i v* Произвольный одиночный импульс последовательности обозначим через -4vs (t — tv, tv), где so(t. xv), О, tv< t Предполагается, что функция s0 (t, iv) является детерминированной. 'Чтобы понятие «амплитуды» Av имело смысл, принимаем, что максимальное значе- значение so(t, \) равно единице. Следовательно, случайный характер рассматри- рассматриваемого одиночного импульса заключается в том, что его «амплитуда» А длительность ту и момент появления tv янляются случайными величинами. Сравнительно просто и математически корректно можно выполнить вы- вычисления по формуле (8.33), при следующих предположениях относительно параметров импульсов и всей импульсной последовательности. 1. «Амплитуда» Av и длительность импульса tv не зависят от интервала dv между соседними импульсами. Совместная плотность вероятности случай- случайных величин Av и tv, а также плотность вероятности Hv не зависят от вре- времени и одинаковы для всех импульсов последовательности, т. е. p2(Av, т )= = рг(А, т), р (Hv) = р (Ф) при разных v. 210 -г 2. Параметры разных импульсов Ач и tv, а также flv взаимно независимы, т. е. случайные величины Av, ту, flv> v = 1,2 п, и А^, тц> Ф^, ц = 1, 2, .... ге, при ц =? v независимы. Представим рассматриваемую реализацию W) случайных неперекры- п вающнхся импульсов в виде суммы %(t) = 2 Avs (t—tv. xv). Подставив это v=l выражение в (8.34), получим FT(M = Tv) e —/wtv v=l где )= J (8.36) спектр типового импульса последовательности (см. табл. 8.1). Очевидно, что квадрат модуля спектральной функции _\FT(ia>)\*= FT (/to) F\ (/@) = l*=Iv=I где через F* обозначена комплексно-сопряженная функция. Если вычислить математическое ожидание этого выражения, учтя при этом принятые предположения относительно параметров импульсов, а также равенство Вальда (8.25), подставить полученный результат в исходную формулу (8.33) и затем перейти к пределу при Г-> оо, получим следующую окончательную формулу: S (@) = ^- U {А* KM {AF1 (со, т)} Re }_^ "'(fl>) +2ят| б (со). Здесь — математическое ожидание интервала между импульсами; 1 (8.37) (8.38) (8.39) _ математическое ожидание (постоянная составляющая) случайного им- импульсного процесса; (8.40) уяпактеоистическая функция интервала между импульсами. " ХСГктрРалСьная плотность в общем"случае является непрерывно-дискрет. ной, т. е. состоит из двух составляющих: непрерывной части Sc(co) и дискрет- ной'линии на нулевой частоте Sd (со): S(@) = Sc(co) + Sd(co). (8-41) 211
Таблица 8.1 Различные типы импульсов f (f) и их спектры F, (со, т)*> Тип импульса Аналитическое выражение > (*) График U; Аналитическое выражение F, (ю т) Примоуголь- ный f(t) Ат, т<т/2, О, \t\ > т/2 I -т/г о т/г t sin СОТ сот 2 Треугольный О, -(г + т), —т < / < О, \t\ >t -Г sin ¦ сот сот 2 Трапецеидаль- Трапецеидальный а) -|- О, (I1) -х sin асот \ 2 / «сот Гауссовский Лтехр |—4 1п2-^-1, -оо</<оо хехр(- со3 16 In 2 Функция оши- ошибок а U — оо</<оо, -тМ' 1/Я J -*" Уя" 1 /г ¦ 1 Г = о, т)= sin СОТ Кехр / аа со2 та ^ Г 4я j
Дискретная линия обусловлена отличным от нуля математическим ожида- ожиданием случайного импульсного процесса. Формула (8.37) справедлива для многих практически важных импульсных случайных процессов В частности, если дополнительно к ранее сделанным предположениям принять, что «амплитуда» Av и длительность родного и то- того же импульса есть также независимые случайные величины, т. е. pt(A, т.) = = р(А)р(т) то формула (8.37) упрощается и принимает вид S(co) = — M'/ '"л [ Re X 2л -^т\М (A}M{Fl@. (8.42) Рассмотрим прямоугольные импульсы и вместо интервала {}v введем интервал между импульсами Av = flv-Tv. " (8-43) В этом случае формула (8.42) примет вид 2 1-вт(@)вд(@) 2л8 (со). (8 .44) Здесь /пт, /Лд и тд — соответственно математические ожидания длительности импульса, промежутка между импульсами и амплитуды импульса, вт(со) =» = М{ехр(усот)} — характеристическая функция длительности прямоуголь- прямоугольных импульсов и вд(ш) = М{ехр(/соД)} — характеристическая функция промежутков между двумя соседними импульсами. В том частном случае, когда независимые прямоугольные импульсы имеют одинаковую амплитуду (Av = Ао = const), справедливы равенства' М {А2} = т^= А%. При этом формула (8.44) упрощается я оказывается симметричной относительно характеристических функций вт(со) и вд(со): S(co) = 2А\ Re ,_Q ,..ло ,...> + А« I _ , _ I 2яв(Ш). (8.45) Приведем окончательные формулы для спектральной плотности периоди- периодических и квазипериодических импульсных процессов, встречающихя в радио- радиотехнических системах [27, 50]. Рассмотрим случай, когда импульсы заданной формы f(t, т0) имеют по- постоянный период повторения ¦& = #0 = const, постоянную длительность т. = т0 = const (т0 < ft0), но случайные и коррелированные амплитуды Av (рис. 8.4, а). Такое задание параметров импульсов характерно для ампли- амплитудно-импульсной модуляции (АИМ). При амплитудно-импульсной моду- модуляции периодически, через тактовый интервал д„, берутся выборки ? (kft0 + + х) случайного процесса ?A), которые затем превращаются в периодиче- периодическую последовательность импульсов A/,f(t — kQ0 — %, т0) со случайными амплитудами А^ — Z(kQo + х) (Рис- 8.3). Считаем, что точная «привязка» моментов отсчета к исходному процессу отсутствует (несинхронные периоди- периодические импульсы) и случайная величина / равномерно распределена в ин- интервале 0 < % < d0) a fmax(t, т0) = 1. 214 Рис. 8.3. Модулирующие случайные импульсы при амплитудио - импульсной модуляции Предположим, что случайный процесс ?(/) является стационарным, имеет математическое ожидание /л? ¦= M{t,(t)} =• const и корреляционную функцию #?(т) = D^(t), где гс(т) — нормированная корреляционная функция. Спектральная плотность полученного таким образом случайного им- импульсного процесса определяется формулой r «о >> т„) |2 (8.46) ft=—с» или S(co) = Ь; 2 I Fx (со, т0) | ^ 2nk (8.47) Из этих формул видно, что спектр состоит из непрерывной части и ди- дискретных спектральных линий при частотах f = kl$0. Эти дискретные линии имеются только в том случае, когда т^Ф 0. Они обусловлены периодическим стробированием постоянной составляющей процесса. При /л,- = 0 спектр является сплошным. Если период ft0 велик по сравнению с временем корреляции xh процесса Z,(f), то в последней сумме в правой части (8.46) будет отличным от нуля лишь слагаемое при k = 0, и формула (8.46) упрощается: (8.48) fe=—с» где Sd(co) = 2л/тг| 0„- 2 | /=i (со, т) |«, Sc (со) = (со, т) |*. (8.49) Здесь Sd(co) — интенсивность («высота») дискретных спектральных линий, Sc(co) — непрерывная часть спектральной плотности. В табл. 8.2 приведены результаты вычислений спектральной плотностя импульсов при АИМ по формулам (8.49) для разных распределений амплитуд импульсов, представленных в табл. 8.3 [51]. Спектры одиночных видеоим- видеоимпульсов разной формы были указаны в табл. 8.1. Последовательности квазипериодических случайиых импульсов встреча- встречаются при различных видах импульсно-времеиной модуляции- Различают четыре основных вида такой модуляции. На рис. 8.4, б—д показаны «низ- 215
Таблица 8.2 Спектральная плотность импульсов при АИМ Плотность вероятности амплитуды импульсов р(х) Синусо- Синусоидальная Нормальная Равномерная Сумма двух дельта-функ- дельта-функций 5^(<й)б(<й—ПО),,). п = 0. ±1. ±2, ... 7" mJ|F, (со, тс) |2 б (со —лсо0) — т\ I Fi (со, то)|2 6 (со— лсоо) -— т\ | F, (со. т0) р б (со—лсо„) 2л 2 #о X IF, (со, Т0)|2б(со—лсо0) Sc(ti» X2 а2 "—If! (CO, To) I2 Wo #о " * У<"' """ кочастотные» импульсы, соответствующие разным видам модуляции, до то- того, как они воздействуют на колебание несущей частоты. Для простоты изображены прямоугольные импульсы одинаковой амплитуды. 1. При импульсно-фазовой модуляции (ИФМ) импульсы имеют постоян-s ные амплитуду и длительность, а их положение от периода к периоду меняет- меняется в соответствии с передаваемым сообщением (рис. 8 4, б). 2. При односторонней модуляции длительности импульсов (ОДИМ) все импульсы начинаются в моменты времени, отстоящие на постоянный пе- период w0, а длительность их изменяется в пределах некоторого интервала (О, тт), меньшего и0 (рис. 8.4, в). 3. При двухсторонней модуляции длительности импульсов (ДДИМ-1) интервал времени между серединами любых двух соседних импульсов оди- одинаков (и„ = const), а длительности импульсов случайно изменяются (рис. 8.4, г). 4. При двухсторонней модуляции длительности импульсов (ДДИМ-2) изменяется как длительность, так и положение фронта импульсов, но каждый "импульс не выходит за пределы своего тактового интервала (рис. 8.4, д). При всех четырех видах модуляции не допускается перекрывание им- импульсов, а их положение ограничивается половиной тактового интервала §„/2. Приведем выражение спектральной плотности для несколько обобщенного варианта импульсно-фазовой модуляции. Пусть длительность каждого типо- типового импульса / (/, т0), где /тах(Л т-о) = '. постоянная тг- = т„ = const, a амплитуды Av и смещения фронта е& случайны, стационарны и независимы как для одного импульса (т. е. при v = k), так и для импудьсов в разных тактовых интервалах (при v Ф k). Для устранения перекрывания импульсов считаем, что сумма длительности импульса т0 и максимального смещения 8тах не превышает #(/2. 216 со 00 'НОСТИ о: ? о ш X U о X н о о к Е График я я я UJ о ji о р* я Ё Аи а; ость 1ОСТИ || S А t г > Its д V Л "к ;? S Г 1 w it — о 1 S О и О s - 94 Ц S 1 ъ Q. X — 1е с ьная ормал X 8 \1 \1 8 — со К S Т 1 § Oxz/f if « V Л н к — о" к СО X о, 0J авном< а. N 1_ *-! — Р\ 1-4 о. о* 4- 94 н 1 _»? ЕХ I rS- 1 Ю ЕХ 1 + 1 ю ЕХ II умма ельта лй и ч я и * 217
Спектральная плотность такой случайной импульсной последователь- последовательности определяется формулой , х0) |а k= ¦ Ink (8'50) где ве (со) = М {ехр (/ше)( — характеристическая функция смещения 8. При 8ft = е0 = const рассматриваемая последовательность импульсов перио- периодическая, | ве(ш)| = 1, и формула (8.50) переходит в (8.48). Из формулы (8.50) видно, что прв тА Ф 0 спектр является дискретно- слошным. Дискретные спектральные линии отсутствуют при тА = 0. АИМ Рис. 8.4. Различные виды импульсной модуляции 218 Для импульсно-фазовой модуляции с постоянной амплитудой импульсов = Ао = const (рис. 8.4, б) формула (8.50) принимает вид S(a>)=Sd(a>) 2nk\ o——— (8.51) где Sd (to) = Sc (ш) = |вЕ (со) |а. (ш) PI. (8.52) В табл. 8.4 приведены результаты расчетов по формуле (8.52) для разных плотностей вероятностей р(е) смещений моментов появления импульсов е = х (см. табл. 8.3). Амплитуды импульсов считаются одинаковыми, рав- равными Ао. Спектральная плотность стационарной последовательности неперекры- неперекрывающихся импульсов постоянной амплитуды Ао при односторонней модуля- модуляции их по длительности (рис. 8.4, в), когда импульсы следуют периодически через интервал д0, а длительности импульсов случайны и независимы с плот- плотностью вероятности р (т) = р (х), определяется формулой (8.51), в которой нужно полагать . т)} |», (8.53) }-| Л! . т)} | Результаты вычислений по этим формулам для импульсов прямоугольной формы при различных распределениях длительностей импульсов приведены в табл. 8 5 (J0(x) — функция Бесселя нулевого порядка). Спектральная плотность стационарной последовательности неперекры- неперекрывающихся импульсов постоянной амплитуды Ао = const при двухсторонней модуляции их длительности (рис. 8.4, г), когда интервал времени между срединами любых двух соседних импульсов постоянен и равен ф0. а длитель- длительности импульсов случайны и независимы определяется формулой (8.51), в которой т) е /(йх/2 (8.54) }- \M{FX (со. Результаты вычислений для двух форм импульсов* при разных рас- распределениях их длительности приведены в табл. 8.6. В заключение укажем формулу, которая часто используется в данной главе при решении примеров и задач. Она получается в результате представ- представления периодической последовательности дельта-функций рядом Фурье и имеет вид П——ОО П=0 ^L V «(«--^-V (8. k— — сю .55) где ео=2 еп = 1, п > 1. 219
Таблица 8.4 Спектральная плотность импульсов при ИФМ Плотность вероятности смещения Р (е) (шN (и — п<л„). гс = и. ±1, ±2,... Синусоидальная -^7 А\ ¦/?, (шх0) | Fi (оз. т0) I2 б (со — пщ) Л2. I f, (со, то)|2 Нормальная Л2, ехр (-о2 cog) I F, (со, т„) |2 б (со-лсо0) [1—ехр(—о2 со2)] Равномерная Сумма двух дельта-функций 2п sin 1пд:п I2 1Л(», ША(| J ,_4M.-,l)s,n.-(™!^)]x F, (со, т0) la 6 (со—nco0) _ LI A\ |F, (со; Tp) |2 . . /co*i_a*2 4Pl A -Pl) S1n2 ^ ^-i Таблица 8.5 Спектральная плотность при ОДИМ 1 Плотность вероят- вероятности длительности импульсов В (Т) Синусоидальная Нормальная Равномерная Сумма двух дельта - функций 6'd (И) 6 (ш —пш0). гс = 0, ± ! , ± 2,... 2лЛ2 ° [1 +^2 (сод;,,) —2y0(co*0)coscoT] б (со — лсо0) С02§§ ¦^4f-| 1+ехр (-а2соа)-2 ехр (--^-а2 со2) coscot |х Хб(со—лсо0) 2лЛ20 Г, , sin2(co*0) n sin(coA;0) 1 , „„ 1 + — rr-—2 cos сот х хб(со—лсо0) 4лЛ§ ~^ {i—Pi+PT—Pi costco^) — A— pi) cos (со*2)+ + PXA— Pj) COS [CO (*] — *g)]} 6 (CO— nC00) ic(co) ш2;о [1-ехр(-о2со2)] Al Г sin2(co*0)-j CO2 do [ (C0*oJ J 2Л2 ¦щ2§ ЛA—Pi){l—cos[co(*j—*2)]}
Спектральная плотность импульсов при ДДИМ-1 Таблице 8.в Платность вероятности импульсов I (со) ft ioi—^to,, ь 1=0, ±1. ±2,... Синусоидальная (ВТ ¦? (ОТ 2 Прямоугольный импульс c«o\x, . ?Al —— I о ((о — Л(о„) COS sin- ( — Нормальная sin2 COT (OX I -exp — fi>2) 6 ( / I \ / (от М — 2exp.J— — o'^wMsin2/—^-1 Равномерная nA 4-)' ют \ ; ШТ_\г /<ОХо \ * I w б ((o — sin (coxp) V 1— cos ((от)—2 /(ОТ ¦ -2(Т Сумма двух дельта- функций Хб (ы—пщ) К f к ¦ Нормальная Гауссовский импульс 8 In 2 \3 § In 2 \ о2 (о2 +8 In 2) 4§0 In 2 / —ш2т2 ХехРТ7ГТ 1+ а2 (о2 \5 4 In 2/ \ 8 In 2+ 2a2 со2 8 In 2 Хехр QjZ X* 8 1n2 + a2 (о2 Равномерная 2п вы xsh2 (о'2 тл;0 8 1п2 2ш2 12 ехр [ —б2 (т2 -т-jtg)] [т sh B62 тл:0) - Уя -erf ^)]X ,}, ,= ш2/8 In 2 2я Сумма двух дельта- функций 4 In 2 + A— Pi) *2ехр -(о2 4 \ — л(о0) —л:г ехр 16 In 2
2. ПРИМЕРЫ 8.1. Вычислить плотность вероятности времени tn появления /1-го события в неоднородном пуассоновском потоке с интенсив- интенсивностью v(/). Решение. Два события {/„ < t) и {N(t) > п—1} являются эквивалентными в вероятностном смысле, так как осуществление одного из них достоверно влечет осуществление другого, т.е. P{tn < t) = P{N(t) > n — 1} = 1 — P{N(t) < n - 1}. На основании этого равенства и формулы (8.17) записываем выра- выражение для функции распределения времени tn ^ Плотность вероятности времени tn появления п-й точки определяет- определяется формулой р'п {t)=~irFtn{t)=у X CIX1 J v (x) dt \ -_±__ / J v (t) dx A-1 I (8.56) J J 8.2. Пусть %+(t') — отрезок времени от некоторого фиксирован-' ного момента V до момента появления первого события после f (рас- (расстояние от f до первой точки справа — рис. 8.1, а) в неоднородном пуассоновском потоке с интенсивностью v(t). Найти плотность ве- вероятности случайной величины т+. Решение. Для произвольного т > 0 события {т+>т} и {N (Г + т) — N (С) = 0} вероятностно эквивалентны, т. е, — j v(s)ds . На основании этого равенства записываем функцию распределения величины т+ при фиксированном V: Fx+(t\t') = Р{т+<т} = 1 — ехр( - Отсюда находим плотность вероятности P^{T\t')=-^-FT+(T\t')=:(t' +x)e%pl~ f v(s)ds), (8.57) \ Г- / Г+х 224 Рис. 8.5. Случайный двоичный сигнал 8.3. Вычислить ковариационную функцию квазислучайного двоичного сигнала ё(/), сформированного на основе простого пуас- соновского потока упорядоченных временных точек{tk, k=0, 1,2,...} следующим образом: %(t) = 1, если число точек в интервале @, /) четное, и l(t) = —1, если число точек в интервале @, t) нечетное (рис. 8.5). Решение. Так как события {k точек в интервале @, t)} при раз- различных k — 0, 1, 2, ... несовместны, то вероятность наличия четного числа точек в интервале @, if) в соответствии с (8.8) равна Аналогично вероятность получения нечетного числа точек в интер- интервале @, t) равна Следовательно, P{l(t) = 1} = е-"' ch v/, P{t(t) = — 1} = e-vt sh vt. По этим вероятностям находим математическое ожидание MW)} = i-P{t(t)= i> — 1./>{Б@ 1} == = e-v' (ch v^ — sh vt) = e~2vt. (8.5f) Для вычисления ковариационной функции Ki(tt, t2) = М{Ц^)Х ^Wi)} нужно знать совместные вероятности случайных величин Wi) и 1@г- Пусть tt — t2 = т > 0. При заданном значении l(t2) = 1 случайная величина 5(/х) = 1, если в интервале (t2, Q имеется четное число точек. Поэтому P{l(h) = 1 \Uh) = 11 = е~" ch vt. Умножив это выражение на P{l(t2) = 1}, получим Р{Ш = 1. Аналогично находим P{lih) = — 1 ^{S(<i) = 11 P{Wi) = 1. = 1} = e-VT ch vt e-v'» ch } = —1} = e-v ch vt sh vt, sh vt e- sh vt e- sh sh 8 Зак. 1203 225
л J L Рис. 8.6. Случайный фототеле- фототелеграфный сигнал tg Записав развернутое выражение для ковариационной функции и подставив в него найденные вероятности, получим K$(tu /2) = = ехр[—2v(^ — t2)]. Поменяв местами t± и t2 (т. е. положив /,< <С t2), придем к окончательной формуле = exp(-2vU1-/2|). (8.59) Из формулы (8.58) видно, что процесс %(t) нестационарен. Это объясняется тем, что начало отсчета времени было выбрано вполне определенным образом (на положительном импульсе). Чтобы «на- «начальное условие» было случайно выбранным, рассмотрим случайный двоичный сигнал i\(t) = Al(t), (8.60) где А — независимая от t(t) случайная величина, принимающая лишь два значения: +1 и —1 с одинаковыми вероятностями: Р{А = 1} = Р{А = —1} = 1/2. При этом М{А} =f=0, M{A2} = 1. Нетрудно убедиться, что процесс it\(t) стационарен, так как = exp (-2vUx — (8.61) Процессы l(t) и \\(t) асимптотически (при t-+oo) имеют оди- одинаковые вероятностные характеристики. 8.4. Вычислить ковариационную функцию и спектральную плот- плотность случайного фототелеграфного сигнала l(t), сформированного на базе пуассоновского потока упорядоченных временных точек {th; k = 0, ±1; ±2, ...} следующим образом [501. В интервалах между соседними точками l(t) — постоянная величина, равная 1 или 0 с вероятностями р и 1 — р соответственно. Значения ?(f) в раз- разных интервалах независимы. Типичная реализация процесса пока- показана на рис. 8.6. Решение. Для произвольно выбранного момента времени t мате- математическое ожидание процесса М{Ш)}= 1-Р{5@= \} + 0-P{Ut) = 0}=p. (8.62) Запишем выражение для ковариационной функции: Kt(t, t + т) = M{W)W + т)} = P{Ut) = 1, l(t + т) = 1}. . 226 Фигурирующая здесь совместная плотность вероятности зависит от того, находятся ли моменты времени Ги t + т в одном и том же ин- интервале или в разных: Р it(t) = 1 ЕIt ' ^ — \\ — \Р* если * и ^ т в °ДНОМ интервале, \р2, если ^ и ?-{-т в разных интервалах. Вероятность того, что t и t + т находятся в одном интервале, опре- определяется формулой (8.9) и равна P0(\t\) независимо от t, а вероят- вероятность того, что / и t -j- т находятся в разных интервалах, равна 1 — ро( h I )• Следовательно, /С6(т) = pe-vi*i + p2[i _e-vixi] = pA _p)e-v\*\+p2, (8.63) По ковариационной функции находим спектральную плотность случайного фототелеграфного сигнала = Г J = J+7' +Р2-2я6И- (8-64) Спектральная' плотность состоит из непрерывной части и дискретной спектральной линии на нулевой частоте. 8.5. Для случайного фототелеграфного сигнала l(t), описан- описанного в предыдущем примере, вычислить математические ожидан;:л времени между переходами 1 -*- 0 и 0 -*¦ 1 и между обратными пере- переходами (рис. 8.6), а также среднюю частоту переходов. Решение [501. Пусть случайная величина тх есть время между со- соседними переходами 1 -*¦ 0 и 0 -*¦ 1. Принимая во внимание основ- основные свойства случайного телеграфного сигнала, можем записать Р {т < Tj < т + Дт} = 2 Р {наличия k — 1 точек в т} X ХР {отсутствия переходов в этих k—1 точках} Р {наличия fe-й точки в интервале (т, т+ Дт)}Р {наличия перехода в fe-й точке } = 1 ! Математическое ожидание времени между указанными переходами 00 С 1 М{х1}= \ руте~-™х dx = . В силу симметрии среднее время между обратными переходами 0-> 1 и 1 -*¦ 0 определяется выражением М {т2} = l/v(l — р) Следовательно, среднее время между любыми двумя переходами равно ra}]==_Lr_JL+ L_l= > 2 [ vp v(l-p) J 2vp(l-p) ' 227
что соответствует средней частоте переходов 2vp(l — р). 8.6. Вычислить ковариационную функцию случайного процесса Ahh(t-th), (8.65) где {Ak} — стационарная последовательность случайных величин с одинаковой плотностью вероятности р(А), не зависящая от последо- последовательности значений {tk}, которые упорядочены и описываются потоком Пуассона с параметром v. ' Решение [50]. Примем, произвольную точку / = t0 за начало от- отсчета времени и затем пронумеруем {th} в реализации |(if) так, что tt — первая точка справа от t0, t-1 — первая точка слева от t0 и т. д. (см. рис. 8.2, а). Тогда все случайные величины th — t0 ПРИ & > 0 и h — tk при k < 0 имеют плотность вероятности (8.14). По определению, математическое ожидание процесса M{Ah}M{h(t-th)}=: = M{A)\yr]h(t)pth(t)dt+ У lh{-t)Pt_k(t)dt\ = lk=\{ »--»x J Г fei ° = vM{A} Hh(t)e-Vl J-^-p dt + f/i@ev'X —oo h(t)dt. (8.66) ШГ ;= i При вычислении ковариационной функции предположим, что случайные величины последовательности {А &} взаимно независимы, так что M{AkAt} = М{А2} при k=i М2{А) при Ифи 0 при k или i = 0. Тогда имеем оо оо xM{h(t-tk+T)h(t-tt)}. Двойную сумму можно вычислить путем раздельного рассмотрения восьми членов, для которых k~> i > 1, k — i ¦< —1, k — t > 1, i>k>\, i<k<— 1, k<i<l, k>\, i<— 1, i>l,- 228 __Г Коммутатор l Рис. 8.7. Способ получения составного сигнала x\\(t) k < —1. Эти вычисления весьма громоздки и здесь не приводятся. Окончательный результат имеет простой вид: J h(i)h(t+x)dt+\vM{A) J h(t)dt\ . (8.67) —oo L —» J 8.7. Вычислить математические ожидания и ковариационные функции трех видов составного (манипулированного) сигнала (рис. 8.7) ть(/) =Ц1/2)[1 + Mt)]lt(t) + A/2)[1 — Щ)\1гЩ, (8.68а) ti2(/) = М0Ы0 + fl — М01Ы0. (8.686) = K(t — b)\y(t — А) + [1 — X(t — ДI?г(*— А) (8.68в) или Лз@ = Щ—Ь)Ш + И—Щ - АI?2@. где %,x(t) и |2(/) — не зависящие от K(t) стационарные, не корре- коррелированные между собой случайные процессы с ковариационными функциями Kt (т) и К2 (т). В составном сигнале (8.68а) K(t) — «переключающий» стационар- стационарный случайный двоичный сигнал (например вида, указанного в при- примере 8.3) с ковариационной функцией Кх(т), принимающий лишь два значения: +1 и—1. При этом сигнал ^(t) = l,t(t) при K(t) = = 1 и t]t(t) = ?2@ ПРИ ^ = — 1. т- е- случайный процесс ^(t) представляет собой случайный манипулированный двоичный сиг- сигнал, состоящий из последовательности случайно чередующихся двух «элементарных» сигналов ?г(/) и |2@- В сигнале (8.686) X(t) есть периодическая (с периодом Т) (син- (синхронная) последовательность детерминированных прямоугольных импульсов длительностью 7\ (рис. 8.8): при *Г</<*Г + Г1, А = 0,±1, ±2, .... (869) о при других t. В сигнале (8.68в) Щ —А) — периодическая (несинхронная) последовательность тех же прямоугольных импульсов со случайным СмещениемА относительно начала отсчета времени. Случайная вели- величина А считается равномерно распределенной в интервале @, Г). 229
h г. Рис. 8.8 Периодическая пе- переключающая функция К(t) г гт зт t Решение. Используя независимость K(t) от 6i(*i) и lt(tt) при различных tlt t2 и t, для математического ожидания и ковариацион- ковариационной функции сигнала ^(t) получим = (i/2)[i х т)} = A/4I1 К2(тI Когда элементарные сигналы 6i@ и |2@ не коррелированы между собой (Ki2(t) ^ 0), из последней формулы получаем х) + К2(т)]. (8.70а) КП1 (т) = Для сигнала r\t(t) находим = Л1 + И - г)} = т)] + r)f 1 - k(t)] }M {Ut) }M {6,@ }. (8 706) В силу периодичности K(t) сигнал ri2@ является периодически ста- стационарным, так как М{цг«+Т)} = М{ц2и)), Kn.(t+T, t+x+T) = = КъП, t + x). Наконец, математическое ожидание и ковариационная функция сигнала r\3(t) равны )) = М{1,(t)} ±JK(t- 1 Г 1 -4t- A)] dA= f- M {I, Л1 {6 (8.70Й) 230 гге 9(т) = — j Mt)k(t + т)^Л Периодическая функция ^(т) пока- 7"i о зана на рис. 8.9. Сигнал v\3(t) является стационарным в широком смысле. 8.8. Получить выражение спектральной плотности стационарной последовательности неперекрывающихся импульсов постоянной ам- амплитуды А = А 0 и постоянной длительности т = т0, если времен- временной интервал между началами соседних импульсов ¦& > т0 изме- изменяется случайно и независимо от импульса к импульсу. Рассмотреть частный случай прямоугольных импульсов. Решение. Применительно к данному примеру формула (8.42) при- принимает вид S (о)) = Л. | F, (о), т.) |« -Т" W (°- т°> 2яб Для прямоугольного импульса здесь нужно положить /ш Тогда получим S ((В) = fL si п V 2 / 11 —в{ш)|а Т1, 0, то)=т„ AIL о,). (8.72) 8.9. Из нормального стационарного процесса 6@ с нулевым средним значением и корреляционной функцией ZVg(t) берутся пе- периодически (с периодом ¦&„) отсчеты 6 (t— ift0), i — 0, 1, 2, ... Эти отсчеты при помощи нелинейной ступенчатой функции t,(t) = = g[|@I подвергаются квантованию на четыре уровня tm — = 1, 2, 3, 4, причем пороги квантования равны ?i. |2 = 0, ?з (рис. 8.10). Функция g(l) предполагается нечетной, т. е. g(l) = = —g(—|). Получающаяся случайная последовательность значе- значений ?т превращается (кодируется) в последовательность прямоуголь- прямоугольных импульсов фиксированной длительности т0 <^о со случайными амплитудами ?т. Вычислить спектральную плотность импульсной последовательности it\(t), полученной из случайного процесса 6@ ПРИ помощи квантования по времени и по уровням. Рис; 8.9. Периодическая функ- функция
Рис. 8.10. Квантование слу- случайного процесса |(/) по времени н по уровням Решение [П. К данному примеру применима формула (8.46). При этом получение импульсного процесса x\{t) целесообразно рассмат- рассматривать в обратном порядке, а именно, как периодическое (с периодом О0) временное стробирование прямоугольными импульсами длитель- длительностью т0 процесса ?(/), полученного из исходного процесса \(t) при помощи нелинейного преобразования g(l(t)). Так как среднее значение процесса l(t) равно нулю и функция g(l) нечетная, то среднее значение процесса t,(t), очевидно, тоже равно нулю, т. е. т^ = 0. Поэтому формула (8.46) упрощается: sin (што/2I2 што/2 J (8.73) где Ri(x) — корреляционная функция процесса t,(t). Здесь учтено, что для прямоугольного импульса единичной высоты и длитель- длительности т0 232 Для определения спектральной плотности 5т, (о>) остается вычи- вычислить корреляционную функцию процесса Z,(t). Анализируя нели- нелинейное безынерционное преобразование g(Q известными методами, можно показать (см. пример 12.6), что где Ф(">(х) — производные от интеграла вероятности; Дт = tm+i — ?га, т = 1, 2, 3. Подставив (8.74) в (8.37), получим окончательно sin (што/2) (8.75) 8.10. Вычислить спектральную плотность стационарной после- последовательности неперекрывающихся импульсов при односторонней модуляции их по длительности (рис. 8.4, в). Амплитуда импульсов фиксирована (At = Ао — const), импульсы следуют периодически через интервал ф0, а длительности импульсов случайны и независи- независимы. Рассмотреть случай прямоугольных импульсов g равномерным распределением длительностей (т)= П/2т0, |т—T0|<T0<ft0, lO |т—то|>то. (8.76) Решение. Следует воспользоваться формулой (8.53). Для прямо- прямоугольного импульса с учетом (8.76) можем написать о, т)=— /03 2х0 М {/=>), т)} = -±- Г F, («, т) dx= о 1(а), т)}|2 =-т- М Zffl^ То sina шт0 г, sin шт0 A _2/toTe-e-s'«. 1 J • —[l - ша L sin (ВТо 2 COS (ОТО . Подставив эти выражения в (8.53), получим sin* тт sin ШТо 233
8.11. Найти спектральную плотность стационарной последова- последовательности неперекрывающихся импульсов при двухсторонней моду- модуляции их по длительности (рис. 8.4, г). Будем считать, что амплитуда импульсов постоянна (At = Ао = const), интервал времени между срединами любых двух соседних импульсов постоянен и равен Ьо, а длительности импульсов случайны и независимы. Выполнить вы- вычисления для импульсов прямоугольной формы, когда их длитель- длительности распределены по нормальному закону: "«-г (87') Решение. В данном случае нужно воспользоваться формулами (8.54). Для прямоугольного импульса находим /\(а), т) = — A — е-1«"), F^a, x)el^'2= —sin^-, /со со 2 |^@), T)|* = -^-(l -COS 0)Т). Воспользовавшись при статистическом осреднении с плотностью ве- вероятности (8.77) известным интегралом cos = -!-]/ уехр(—^-], Rep>0, получим AsinJ^exp со 2 М\ (—i"°2ft)!!)' (о), т) |2} = А- [ 1-cos ая0 ехр ^ Х- а2 <о«)]. Подстановка этих соотношений в формулы (8.54) дает выражение для спектральной плотности независимых прямоугольных импульсов при двухсторонней модуляции их по длительности Результаты вычислений для Прямоугольных и гауесовских им- импульсов при разных распределениях длительностей приведены в табл. 8.6 [511. 8.12. Найти спектральную плотность стационарной последова- последовательности модулирующих импульсов постоянной амплитуды (At = = Л о = con»t) при двусторонней модуляции длительности импуль- импульсов (рис. 8.4, д). Предполагается, что длительности импульсов Т| и смещения е4 моментов их появления относительно тактового ин- интервала ft0 независимы для любых пар импульсов, причем 0 ^ Т| -f- «f- е4 ^ до (отсутствие перекрывания). Рассмотреть частный случай 234 прямоугольных импульсов, у которых смещения и длительности независимы и распределены равномерно в интервале @, fto/2), т.е. р,(т) = 1/т„, Pl(e) = 1/е0, т0 = е0 = (8.78) Решение. Применительно к сформулированному примеру спект- спектральная плотность определяется формулой S(a>) = -2L \М {| F, (о), т) |»} -1 М {F\ (о), т) (8.79) где F*(x) — функция, комплексно-сопряженная F(x). Если длительности тг и смещения ей независимы не только для любых разных (i Ф k) импульсов, но и для одного и того же импульса (т. е. при i = k), то формула (8.79) упрощается: S И = -^- \М {\ , т) |«> - , т)} ве ((о) | (8.80) где ве (а>) = Af{exp(/o)e)} — характеристическая функция смеще- смещения е. Для прямоугольного импульса с учетом (8.78) можем написать F\(a>, т)= L(e/«x-_i) /ш М{Л(«, t)} = -L Л (со, x)dx =—!— A +Дот„-е*»Ч о ^P^^- [ 1 + -^-((ОТоJ—COS 0)Т0 - 0)Т0 Sin (OTo 1, М {\ ), т) |2} = (О То (о)то —sin с*т0). Зная плотность вероятности (8.78) для смещения, находим ха- характеристическую функцию ) = -Lf в() J /coe0 -1), 16e(a))|« = (coeoJ _cosa)80). Известно, что квадрат модуля произведения двух комплексных величин равен произведению квадратов модулей сомножителей. Если учесть, что т0 = е0 = Фо/2, и подставить записанные соотношения в 235
(8.80), то получим выражение для спектральной плотности случай- случайной последовательности независимых прямоугольных импульсов = Л^±\ х3(х—sin*)—(x2 2л;6 I 2cosx — +4—4cosx—x2cosjc—2 — cosx) + (х2 Укажем, что при записи сомножителя перед суммой дельта-функ- дельта-функций было учтено, что дельта-функции отличны от нуля лишь в точ- точках со = 2nk/^0 (юд0 = 2я/г), в которых 2 cos2* + 2jc siruc cos* = A4- cos2x) —x sin2x =-2. 3. ЗАДАЧИ И ОТВЕТЫ 8.1. Исходя из того, что приращения простого пуассоновского потока N(t2) — ЛГ(гх), t2 > ^ на неперекрывающихся временных интервалах независимы и распределены по закону Пуассона с мате- математическим ожиданием v(t2 — tj), найти математическое ожидание произведения приращений на двух интервалах, когда эти интер- интервалы не перекрываются и перекрываются (рис. 8.11). Ответ: M{[N(ta)-N(tb))[N(tc)-N(td)\} = v*(ta-tb)(tc-td) при ta> tb> tc> tdi M {IN (ta)- N (tb)\ [N (te)- N (td)\) = M {{IN (ta)- N (tc)] + • = »'(ta — tb)(te—td) + v(tc—tb) при ta>tc> tb>td, где (tc — 4) — длина перекрывающихся частей двух интервалов D, ta) И (td, U). 8.2. Получить выражение для ковариационной функции целочис- целочисленного пуассоновского процесса A Ответ: 8.3. Найти выражение для ковариационной функции неоднород- неоднородного пуассоновского процесса N(t). Ответ: ,=Jv(Od/|l+'}v(fld/| при При tx < t2 в этом выражении нужно поменять местами it и ?,.' 236 Рис. 8.11. Перекрывающиеся интервалы времени 8.4. Вычислить математическое ожидание и ковариационную функцию следующего приращения n(t) простого пуассоновского процесса (см. рис. 8.1, в) n(t) = [N(t + е) — N(t)\/e, где е > О— заданная величина. Изобразить график ковариационной функции и рассмотреть предельный случай при в -> 0. Ответ: М {п (t)} = A /е)ЛТ {N (t + е)} — A/г)М {N (t)} = v, |/1—/2| ПрИ \t1—t2 | < 8. График ковариационной функции изображен на рис. 8.12. Кова- Ковариационная функция состоит из суммы постоянной составляющей v2 и равнобедренного треугольного импульса, который при е -*¦ О переходит вдельта-импульс v8(*2 — tt). 8.5. Вычислить математическое ожидание и функцию процесса ковариационную f? представляющего собой последовательность дельта-функций (см. >, рис. 8.1, б). ? Ответ: M{l(t)} = v, Кфи t2) = v2 + vS(*2 — ^). ^ Указание. При получении ковариационной функции сле- * дует воспользоваться формулой F.30) и выражением ковариацион- t. ной функции процесса W(/), полученным в задаче 8.2. 8.6. Для простого пуассоновского процесса N(t) получить вы- выражение одномерной характеристической функции. Ответ: Q(jv) = M {e'vN «>} == ev'(e>" — 1). Рис. 8.12. Ковариационная функция прира- приращения пуассоновского процесса 237 -е о е
8.7. Для простою nvdCcOHOBChoro процесса N[t) при /, > ', u целых положительных числах k и п получить выражение для вероят- вероятности Р{Щ^) = k + n, N(t2) = k]. Ответ: = k} = e~vt> v*+" re! 8.8. Доказать, что математическое ожидание mJft и дисперсия Dth времени tk появления &-го события в простом пуассоновском потоке выражаются через математическое ожидание тх и дисперсию DT интервалов xfe между соседними событиями формулами mth = = кт%, Dth = kDx. Ответ: 4 = 2 ть гДе (ТЛ — последовательность взаимно неза- внсимых случайных величин с одинаковыми математическими ожи- ожиданиями тх и дисперсиями Dx. 8.9. Вычислить вероятность наличия Я, событий в полуинтерва- полуинтервале (t, t -f- xJ для неоднородного пуассоновского потока с интенсив- интенсивностью v(t) — vo(l + a sin mi). Ответ: PK(r) = (v0T)ke-v'Tll\, где t+x Г= Г A + a sin at) 4t= T-f —sinoo/f +— tjsin — J to \ 2 У 2 В частности, сот. —vot— 8.10. Вычислить плотность вероятности временного интервала *h—tk — h-i между k-fi и (k — 1)-й точками неоднородного пуассоновского потока с интенсивностью v(<), считая момент вре- времени 4-i известным и фиксированным. Ответ: рч (т | th_t) = v D-i + т) exp (-T v (s) ds 8.11. Вычислить плотности вероятности случайных величин т+ я т" для простого пуассоновского потока с интенсивностью v, где t+ — длина временного интервала от произвольно выбранного мо- момента времени f до ближайшей точки справа, а т~ — до ближайшей точки слева. Ответ: /?т+ (т) = Pi- (т) = v ехр(—vx). 8.12. Найти плотность вероятности промежутка времени Тк — - ti+h — U между t-м и (/ + k)-M событиями в простом пуассо- пуассоновском потоке с интенсивностью v. Omcem: phiit) = ve-v'(v0*~'''ffe — 1)! 2.4J .—>< ><y i i i *- —X—X— -?- 1 -*- *>< ? i i Ус X X 1 Пуассонов- сний процесс Процесс Эрланга Рис. 8.13. Иллюстрация формирования потока Эрлаига из пуассо- пуассоновского при к=Ъ 8.13. В простейшем пуассоновском потоке с интенсивностью v производится операция «разрежения». Пусть все точки, начиная с некоторого начального момента времени, перенумерованы в порядке их появления. Исключим все точки, кроме тех, номера которых крат- кратны некоторому целому числу k (на рис. 8.13 приведен пример для k = 3). В результате такого разрежения получим новый точечный процесс — поток Эрланга. Найти плотность вероятности временных интервалов между соседними собятиями в потоке Эрланга. : Ответ: рч(х) = ve~VT (vx)ft-V(fc — 1)!, k = 1, 2, 3, ... 8.14. В законе Пуассона (8.8) длительность временного интерва- интервала t является случайной величиной с экспоненциальной плотностью вероятности p(t) — а ехр (—at), а > 0, t ^ 0. Найти вероятность Рп ровно п событий. оо . -- / \- Ответ Pn ~ a f e 8.15. Телефонные вызовы отдельных абонентов являются пуасср- новскими потоками вида (S.8), но с разными математическими ожи- ожиданиями. Найти вероятность поступления ровно п вызовов на теле- телефонную станцию за время t, если параметры интенсивности разных абонентов можно аппроксимировать гамма-плотностью вероятности 1) Ответ: Pn(t)= Y a+t 8.16. Пусть {NJt), 0< *<оо} и {#2@, 0<*<оо} есть два независимых пуассоновских процесса с интенсивностями vx и v2 соответственно. Вычислить вероятность Рп того, что во временном промежутке между двумя любыми соседними событиями процесса Ni(t) появится ровно п событий процесса #2(?). Ответ /»я«Г<а21е-^^е^Л = -^Шл, « = 0,1,2,... J я! Vi+VjVvx+Vjj/ 239
01- 0\ I T II. 11 -^•Процесс Nf(t) Процесс Процесс Put 8.14. Наложе- Наложение трех точечных процессов i I i i x xxx X—=»- Суммарный процесс Ш) 8.17. В законе Пуассона рк = № ехр (—%)lk\ сам параметр % распределен также по закону Пуассона: Р% — а* ехр (—а)/Ы. Найти безусловную вероятность появления ровно п событий. Ответ: Рп= i~% а~х&-а k\ V. х где Мй — k-й начальный момент распределения Пуассона. 8.18. Имеется конечное число г взаимно независимых пуассонов- ских потоков N^t), ..., Nr(t) с интенсивностями vt, ..., уг соответ- соответственно. Показать, что суммарный поток (рис. 8.14) N(t) = Л^@+-.- ... + Nr(t) является также пуассоновским с интенсивностью v = = Vl + ... +Vr. Ответ: Нужно убедиться, что для суммарного потока #@ вы- выполняются три определяющих свойства пуассоновости потока: орди- ординарности, стационарности и независимости приращений на непере- неперекрывающихся интервалах времени. Из условия ординарности (8.5) для потока #@ определяется параметр интенсивности v = v,-f-..t ... + vr. 8.19. Имеется два независимых целочисленных пуассоновских процесса N^t) и N2(t) с законами распределения -v*(, n, т = 0, 1, 2,... /г! т! Найти закон распределения p(k) для разности N(t) — N^t) —Nz(t). Ответ: (fynT2),k = 0, ±1, ±2,..., где Ik(x) — функция Бесселя &-го порядка от мнимого аргумента. 8.20. Вычислить математическое ожидание и корреляционную функцию случайного двоичного сигнала г|(^), который отличается от квазислучайного двоичного сигнала l(t), описанного в примере 8.3, лишь тем, что принимает значения At и А2, а не +1 и —1. Ответ: А* 0,@} = A/2) (А, + Л2) + A/2КЛ, — Л,)е-™, R (h. к) = 240 Указание. Нужно воспользоваться соотношением ti@ = A/2)(Лх + Л2) + A/2)(Л, — Л2)Е(О, а также формулами (8.58) и (8.59). 8.21. Вычислить математическое ожидание и ковариационную функцию случайного двоичного сигнала r\(t), который отличается от случайного фототелеграфного сигнала |@, описанного в примере 8.4, только тем, что принимает значения Аг и Л 2, а не 1 и 0. Ответ: M{r\(t)} = Ахр + Л2A — р), /Ст,(т) = [Л,/? + Л2A — p)V + (Ai—Aifp (I — /?)e-viTi. Указание. Нужно воспользоваться соотношением т,@ = = Аг + (Аг — Л2) 1@, а также формулами (8.62) и (8.63). 8.22. Найти спектральную плотность стационарной пуассонов- 00 ской последовательности дельта-импульсов \(t) = 2 Ahb(t—th), k=— 00 где {Лft} — последовательность взаимно независимых случайных величин с одинаковой плотностью вероятности р(А), {th} — неза- независимая от {Ап} пуассоновская последовательность точек на оси времени с интенсивностью потока v (рис. 8.15). Ответ: S (©) = vM{A2} + (vM{A }J2n6(o>). Указание. Целесообразно сначала по формуле (8.67) найти ковариационную функцию /С(т) = vM {А г}б(т) + (vM {Л}J, а за- затем по ней вычислить спектральную плотность. 8.23. Получить спектральную плотность суммы двух взаимно независимых стационарных последовательностей дельта-импульсов «высотой» Ah и Bt: 5@= У, Ah6(t—tk)+ У. В,6у—Ь). Здесь первая последовательность описана в задаче 8.22, а вторая последовательность аналогична первой: {Bi} — последовательность взаимно независимых случайных величин с одинаковой плотностью вероятности рг{В), {tt} — независящая от {В,-} пуассоновская последовательность точек на временной оси с интенсивностью пото- потока [i. Ответ: S(o>) = Рис. 8.15. Стационарная пуассоновская последова- последовательность дельта-функций hM{A} *-z \t-T. AkO-(t-th). О tttz 244
8.24. Рассмотреть два частных случая задачи 8.22: 1) р(А) = 8(А — Л о); 2) р(А) = 1б(А - Л 0) + 8(А + Ао)\/2. Ответ: 1) 5(ш) = v^gll + 2nv6(©)j; 2) S(©) = v4J. 8.25. Получить выражение ковариационной функции бесконеч- бесконечной последовательности чередующихся биполярных дельта-импуль- дельта-импульсов A0S(t— th) и — A06(t— 4+i) (рис. 8.16), где {^ — ста- стационарная пуасссновская последовательность точек на оси времени с интенсивностью v. Ответ: /С(т) = vЛ5б(т) — vM§e-2' i ч. Указание. Рассматриваемую последовательность чередую- чередующихся биполярных дельта-импульсов можно получить путем диффе- дифференцирования стационарного случайного двоичного сигнала, приве- приведенного в примере 8.3, принимающего два значения: Ло/2 и —Ло/2 (рис. 8.5). Ковариационная функция такого сигнала ?(/) согласно формуле (8.61) равна /C8(t)=(i45/4)exp(-2v|T|). Поэтому /С(т) = —^г/С|(т)/^тг. При вычислении второй производ- производной полезно воспользоваться представлением (см. рис. 8.17) где т<0' / при т>0. (vЛ02/2) e^vt При т < О, —(vi4J/2)e-*« при т>0, — e2vT) при т<0, —e~2VT) при т>0. 8.26. На основе простого пуассоновского потока временных точек с интенсивностью v сформирован случайный процесс %(t) = Л& при tk ^ t<. 4+1. к = 0, ±1, ±2, ..., где {Ак} — независимая от {th} последовательность взаимно независимых случайных величин с общей плотностью вероятности р(А). Вычислить математическое ожидание и корреляционную функцию процесса l(t). Ответ: Я(т) - М{Аг}Р0(т) + т\[\ - /утI — т\= DAe-"tn, где Da = М{А2} — т\ —дисперсия случайной величины Ak. 8.27. Вычислить корреляционную функцию и спектральную плотность стационарного случайного сигнала s(t) = Acos{a>0t ф0] у которого Л о и G)o — постоянные амплитуда и частота, ф0 — слу- случайная начальная фаза, равномерно распределенная в интервале (—я, я), q>(t) — модулирующее случайное сообщение вида y(t) ^= = Фъ tk < t< 4+i, * = 0, ±1. ±2, ... \*к Рис. 8.16. Стационарная пуассоновская по- последовательность чередующихся биполяр- биполярных дельта-функций Рис. 8.17. К вычислению производных ко- ковариационной функции Здесь {фй} — случайная последовательность взаимно независимых случайных величин, равномерно распределенных в интервале (—я, п)> {th} — не зависящая от {фь} стационарная последовательность пуассоновских временных точек с интенсивностью v. Ответ [45): 1 0-0HL ' 8.28. Случайная функция %(t) образована последовательностью примыкающих друг к другу прямоугольных импульсов, амплитуды и длительности которых случайны и независимы (рис. 8.18). Плот- Плотности вероятности для амплитуд и длительностей заданы ; /7(т)=ае-°«, а>0, т>0. Вычислить спектральную плотность и корреляционную функцию случайного процесса ?(/). 2а Ответ: S (ш) = ¦ о%+ тА2п8((й), Указание. Следует воспользоваться формулой (8.44), поло- положив А — 0. Рис. 8.18. Случайная по- последовательность примыка- примыкающих прямоугольных им- импульсов ¦ш 243
8.29. Найти спектральную плотность стационарной последова- последовательности прямоугольных импульсов с постоянной амплитудой А = = Л 0, когда импульсы и промежутки между ними имеют одинаковый закон распределения. Ответ: At i-et(a» i -Re Al ло(со) = l+eT(co) 2 ° -10тИ12 , 1 „,_¦>, ч ш*тх |1+вх(ш)|« 2 " Указание. Воспользоваться формулой (8.45). 8.30. Вычислить спектральную плотность стационарной после- последовательности независимых прямоугольных импульсов с постоян- постоянной амплитудой А 0 и постоянной длительностью т0, есл"и длитель- длительность временных интервалов между соседними импульсами А имеет показательный закон распределения: /?(А) = |3е~вл, р > 0, А > 0. Ответ: S (со) = И+PW 8.31. Найти спектральную плотность стационарной последова- последовательности независимых прямоугольных импульсов с постоянной ам- амплитудой А о и постоянной длительностью промежутков между им- импульсами Ао, когда длительности импульсов распределены по пока- показательному закону р(т) = ае~"ах, а > 0, т. > 0. Ответ: S(со) = С02(!+аД0) r/_« v _ \\ со ) а.А0 toAof + 2яб(со). 8.32. Вычислить спектральную плотность и корреляционную функцию стационарной последовательности независимых импульсов прямоугольной формы с постоянной амплитудой Ао, когда длитель- длительности импульсов т. и длительности интервалов между соседними им- импульсами А имеют показательные законы распределения р(т) = ае~а\ т > 0; р(Д) = ре~Рд, А > 0. ' Ответ: 8.33. Периодические выборки (с периодом #0) стационарного слу- случайного процесса ?,(t), имеющего среднее значение mi и корреля- корреляционную функцию /?t(x) = ofe~°"T|, превращаются в прямоуголь- 244 1 ные импульсы постоянной длительности т•= const (см. рис.8.3). Оп- Определить спектральную плотность, получающейся периодической последовательности прямоугольных импульсов со случайными ам- амплитудами Л, = Ш— й>„). е-"»» Ответ: S (со) - — | Ft (со, хо|2 а! ( 1 +2 >¦ е-"'» cos 2 оо "| г ^о _^ V #о/ w2 ^в '-' ch do—cos сод» + *« 8.34. Независимые одинаковые импульсы треугольной формы (см. табл. 8.1) (t + то)/то, Wo — т0 < t < ifta, О, при других t имеют постоянный период следования Фо- Плотность вероятности амплитуд импульсов имеет вид р(А) = [\.пУxl~(A — tnAf]~l, \A—mA\<x0, 10, \А- Найти спектральную плотность такой случайной импульсной после- последовательности. Ответ: (см. табл. 8.2) 8.35. Подканалу связи передается двоичная информация: незави- независимые посылки и паузы равновероятны и передаются периодически с тактовым интервалом Фо. Посылке соответствует прямоугольный импульс постоянной амплитуды Ао и постоянной длительности т0, а паузе — отсутствие импульса. Найти спектральную плотность по- последовательности импульсов. Ответ: S(co) —L Al Оо f-a- (ит./2) J[ T«o ^^ \ ft, 8.36. Независимые и равновероятные посылки и паузы представ- представляют собой прямоугольные импульсы постоянной длительности т = Фо и постоянной амплитуды Ло » но противоположной поляр- 245
ности (посылке соответствует +Л0, паузе соответствует—А0). По- Посылки и паузы следуют через постоянный интервал времени #0. Вы- Вычислить спектральную плотность и корреляционную функцию тако- такого случайного телеграфного сигнала. Ответ: sin (w#0/2) 8.37. На линейное устройство (рис. 8.19), состоящее из линии задержки на время •&„, вычитающей схемы и идеального низкочастот- низкочастотного усилителя с коэффициентом усиления /Со, воздействует случай- случайная последовательность двоичных сигналов, указанная в задаче 8.35. Определить спектральную плотность случайной последовательности импульсов на выходе устройства. Ответ: S (со) = А* К20 #0 (-j-J [ - ' sin (coTo/2) sin (сото/2) Указание. Частотная характеристика рассматриваемого устройства K(j(n) = /СоО — е-'ш0«). 8.38. Двоичная информация передается при помощи детермини- детерминированных сигналов с фазовой манипуляцией. Независимые и равно- равновероятные посылки и паузы передаются периодически в течение' все- всего тактового интервала Фо = const. Посылке соответствует прямо- прямоугольный радиоимпульс Asina>ot длительностью Фо> а паузе — ра- радиоимпульс — i4sincoo^ той же длительности. Амплитуда А и час- частота соо — постоянные величины. Считая toofl'o= 2лп, где п — любое целое положительное число, найти спектральную плотность случай- случайной последовательности прямоугольных радиоимпульсов. ' Ответ: S (со) = А> i>0 [ 23X"sin(c°^/2) Г. 8.39. Передача двоичной информации осуществляется при помо- помощи импульсно-фазовой манипуляции. Посылка передается прямо- прямоугольным видеоимпульсом с амплитудой Ао = const, длительностью т0 = const и временным положением относительно тактового интер- интервала 8 = б! = const. Пауза передается тем же прямоугольным им- импульсом, но его положение относительно тактового интервала равно е = е2 = г1 + е0, где е0 = сопЫ. Каждый из импульсов не выходит за пределы своего тактового интервала, т.е. O^ej^ft,,— т0, 0 2 ^ #0 — т0. Посылки и паузы независимы и равновероятны. V]—*' Рис. 8.19. Схема линейного устрой- устройства 246 Найти спектральную плотность такой случайной последовательнос- последовательности прямоугольных импульсов. Ответ: S(co) = А\ ьАЩ \ si sin (сот,/2) (шт„/2) Указание. Следует воспользоваться формулой (8.52). В дан- данном случае плотность вероятности для смещения в равна о(в) = = A/2)8(8 -8,) + A/2N (8- 82). 8.40. В квазипериодической стационарной последовательности независимых импульсов, имеющих одинаковую форму, но случайные амплитуды Аи смещения 8 моментов появления импульсов относи- относительно тактового интервала, равного Фо, распределены по нормальному закону ¦ехр - /7(8) = где ае <С #о (отсутствие наложения импульсов). Вычислить спектральную плотность импульсного случайного процесса. Рассмотреть частный случай, когда амплитуды импульсов постоянны (At = А о = const). ; Ответ [52]: "о то)| , T0)|2jl —ехр( -a|co2)-|- 8.41. Независимые периодически повторяющиеся (с периодом Фо) прямоугольные импульсы с постоянной амплитудой Ао имеют плотность вероятности длительности импульсов р(х) = pt8(T — Tj) + A — Р!)б(Т — Т2). Найти спектральную плотность импульсного случайного процесса. 247
Ответ: S(«>) = Л Ч-/??—^coswtj—A — 2Л5 — Л)!1 — COSQ)(X2— 8.42. Найти спектральную плотность стационарной последова- последовательности неперекрывающихся импульсов при двусторонней моду- модуляции их по длительности (рис. 8.4, г). Амплитуда импульсов по- постоянная Л о = const, интервал времени между срединами любых двух соседних импульсов также постоянен и равен т}0,а длитель- длительности импульсов случайны, независимы и имеют плотность вероят- вероятности 0, -ТчЛ . И—x0|<Jf0. |x—то|>хо. 2 sin2((dT0/2) J2 I ощ \ (cot0/2J ° \ 2 Ответ: S (со) = oo x 2 »— где J0(x) — функция Бесселя нулевого порядка. 8.43. В плоскопараллельном диоде, работающем в режиме насы- насыщения, моменты вылета электронов с катода независимы и описы- описываются законом Пуассона. Пренебрегая начальными скоростями вы- вылета электронов из катода, можно считать, что пролет каждого ЪП U7t 5Я 6Я ЫТд Ю Рис. 8.20. Элементарный ям пульс анодного тока плотность дробового шума (б) 248 электрона от катода до анода наводит в анодной цепи треугольный импульс тока (рис. 8.20, а) е V'= \2etlxl = л 10 при других г, где е — заряд электрона; т0 — время пролета электрона от катода до анода. Среднее значение анодного тока 1а = ех, где v — среднее число электронов, попадающих на анод в единицу времени. Вычислить и построить график спектральной плотности дробо- дробового шума. Определить значение непрерывной части спектра Sc(co) при нулевой частоте. Ответ [42]: 5 (со) = 2п/1 б (со)+ — [(о>то)а +2 A — cos<ot0— L (СОТ„L —о)т„ sin a»xo)J. Se@)=ela. График спектральной плотности изображен на рис. 8.20, б. 9. ОСНОВЫ ТЕОРИИ НАДЕЖНОСТИ И МАССОВОГО ОБСЛУЖИВАНИЯ 1 ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ 1. Надежность — свойство системы (объекта, изделия, устройства, элемента и т. д.) выполнять возложенные на нее функции с сохранением эксплуатационных показателей в заданных пределах при определенных ре- режимах и условиях эксплуатации. Надежность — сложное свойство, включающее в свою очередь безотказ- безотказность, долговечность, ремонтопригодность и сохраняемость. В зависимости от конкретных систем и условий их эксплуатации эти свойства могут иметь различную относительную значимость. Для расчета надежности, формулирования требований на надежность разрабатываемых систем, сравнения систем по надежности и т. д. служат количественные характеристики — показатели надежности, которые опреде- определяются или по экспериментальным данным об отказах системы, или по из- известному аналитическому выражению какой-либо характеристики. В первом случае используются статистические определения показателей надежности, которые получают при испытаниях и эксплуатации систем (такие показатели в дальнейшем отмечены звездочкой); во втором — вероятностные определе- определения и аналитические зависимости между ними. Вероятностные расчеты про- производится на стадии проектирования. Для невосстанавливаемых (перемонтируемых) систем чаще всего исполь- используются четыре показателя надежности: вероятность безотказной работы P(t), плотность вероятности отказов (частота отказов) P\(t), [интенсивность отказов X(t), среднее время безотказной работы (средняя наработка до отка- отказа) mt [22, 53—57]. ¦ : ! Вероятность безотказной работы (функция надежности) P(t) есть ве- вероятность того, что система проработает безотказно в течение времени /, начав работать й момент времени t ==? 0, или вероятность того, что время работы системы ;до отказа окажетси больше заданного времени /: />(<)= Р(Т > 0= 1 - F^t). ¦ (9.1) где Г —случайное время работы (наработка) системы до отказа; F,(t) = = Р(Т < t) — функция распределения случайной величины Т. 249
А Г'Р Рис. 9.1. Типичный вид функции P(t), О Иногда пользуются понятием вероятности отказа Q(t) за время t, кото- которая определяется как вероятность того, что случайное время работы системы до отказа окажется меньше заданного времени t: Q(t) = P{T < t) = 1 - P(t) = F^t). (9.2) Плотность вероятности отказов Pl(t) — плотность вероятности «того, что время работы системы до отказа окажется меньше t, или плотность вероят- вероятности отказа к моменту времени t: P(t+M)~P(t) dP(t) \t = ¦¦ — lim dt dl (9.3) Интенсивность отказов Ц<) системы в момент времени t есть плотность вероятности отказа системы к моменту времени t при условии, что до этого момента отказ системы не произошел: JbJ?L-JlML k(t)=- dt P(t) (9.4) Среднее время безотказной работы mt системы — математическое ожи- ожидание времени работы системы до отказа: "*(=] t=\ P(t)dt. (9.5) Показатели надежности (9.1)—(9.4) функционально связаны между со- собой: зная одну из функций P(t), Q{t), Pl(t), Ц1), можно определить три ос- остальные (табл. 9.1). Типичный вид функций P(t), Q(t), Pl{t) и K(t) изображен на рис. 9.1. Пусть No — число исправных систем в начальный момент времени / = 0; N(t) — число исправных систем в момент времени t; n(t) — число систем, отказавших за время t ;An(t,At) — число систем, отказавших именно в интервале от t до t -\- At; t\ — время наработки <-й системы до отказа. Тогда статистические показатели надежности для невосстанавливаемых систем определяются выражениями: Nn n(t+\t)-n( n{t+M)—n(t) N(t)M Q*(t)=n(t)IN<>, NaM — N(t) _ Sn(t, AQ. , до m.~- (9.6) (9.7) (9.8) (9.9) (9.10) 260 -j S 4 О ca „4 U О a ce E s; к g 1 ce о E меж, л n a и к ce x л ce о S а E — 5 R S тиая Извес ¦a 1 w- - ? Q ST 1 ¦3 с | v is • 1 p CJ. 8'—.^ * 1 P 1 a. X .—. 1 1 'ii a. К 1 1 1- 1 p 1 o. и 1) 251
Для восстанавливаемых систем характерно чередование времени исправ- исправной работы и времени восстановления (ремонтов). Рассмотренные показа- показатели описывают период работы системы до первого отказа или после ликви- ликвидации отказа до появления очередного. Поэтому для восстанавливаемых систем вводятся дополнительные показатели,главными из которых являются: параметр потока отказов Л(<). наработка на отказ т0, среднее время вос- восстановления тв и коэффициент готовности Кг- Иногда используются и дру- другие характеристики: частота восстановления, интеисивиость восстановления, вероятность восстановления и т. д. Параметром потока отказов Л(<) называется предел отношения вероят- вероятности P(t, At) появления хотя бы одного отказа за интервал времени At к длине этого интервала: Л@= Km [P(t, At)/At]. (9-11) Л(-*0 Наработка на отказ т0 есть среднее значение времени между соседними отказами. Среднее время восстановления системы тв — математическре ожида- ожидание продолжительности восстановления системы после отказа, т. е. это среднее время вынужденного, иерегламентированного простоя, вызванного отысканием и устранением отказа: = [ tpB(t)dt = j tdFB(t) =.j [1- FB(O]rf<. 0 0 0 (9.12) где pB(t) — плотность вероятности времени восстановления; FB(t) — функ- функция распределения времени восстановления. Коэффициент готовности /С,- для установившегося режима эксплуатации определяется как вероятность того, что система будет исправна в произ- произвольно выбранный момент времени в промежутках между плановыми техни- техническими обслуживаниями: Кг = то/(то + тв), (9.13) где т0 — средняя наработка на отказ; тв — среднее время восстановления системы. Статистическая оценка параметра потока отказов определяется как отно- относительное число отказавших систем в единицу времени = An^t, At)IN0Al, (9.14) причем в число Дп,(Л At) входят как первоначальные отказы, так и отказы, появившиеся после восстановления или замены отказавших систем. В общем случае Anx(t, At) больше величины An(t, At) в формуле (9.8). Параметр пото- потока отказов восстанавливаемых систем равен интенсивности отказов соответ- соответствующих невосстанавливаемых систем, если потоки отказов в обоих случа- случаях являются простейшими (см. гл. 8\: A(t) = k(i) = const. Наработка на отказ по данным испытания одного образца системы вы- вычисляется по формуле « (9.15) ме п — общее число отказов системы за период наблюдения; it — время исправной работы системы между ((' — 1)-м и t-м отказами. Если на испытании или эксплуатации находится Na одинаковых систем в течение времени t, то наработка на отказ определяется выражением / No п, \ / N. *;= 2 2 чА 2 «I- <9Л6) 252 где itj — число отказов /-го экземпляра за время t; ti} — время исправной работы /-го экземпляра между (< — 1)-м и t'-м отказами. Формулы для статистических оценок времени восстановления т* и ко- коэффициента готовности К1 соответственно имеют вид 2 (=1 (9-18) Здесь Л^о — общее число систем (или число восстановлений одной и той же системы), iB i — реализация времени восстановления для г'-й системы (или i-я реализация одной и той же системы), п — число отказов системы за время испытаний или эксплуатации, tBi — время восстановления системы после t'-ro отказа. Через известный коэффициент готовности выражается коэффициент пррстоя,. определяющий вероятность нахождения системы в неисправном состоянии: Кп — ' — (9.19) При определении показателей надежности по экспериментальным дан- данным обычно находят некоторую исходную характеристику, например закон распределения времени безотказной работы, а остальные показатели опреде- определяют расчетным путем. Выбранная модель закона распределения должна согласовываться с экспериментальными данными. Проверка соответствия производится по правилам математической статистики (см. гл. 4). Кроме того, если это не противоречит существу дела, то всегда следует выбирать такие распределения, которые определяются небольшим числом параметров. Тогда проведение статистических оценок и расчет надежности значительно упро- упрощаются. Наиболее часто используются следующие плотности вероятности времени безотказной работы: экспоненциальная (показательная), Вейбулла, гамма- распределение, логарифмически-нормальная, усеченная нормальная и Релея. Особая роль принадлежит экспоненциальной плотности вероятности, которая порождается простейшим потоком отказов (см. гл 8). Экспоненциальное распределение достаточно хорошо описывает пове- поведение элементов и систем в период их нормальной эксплуатации (область II на рис. 9.1), когда происходят внезапные отказы и когда интенсивность отка- отказов примерно постоянна: k(t) = A(t) = const. Зависимости основных показателей надежности от времени для некото- некоторых плотностей вероятностей приведены в табл. 9.2. Решение задачи определения надежности системы по характеристикам надежности входящих в нее элементов зависит от способа соединения послед- последних. При последовательном, или основном, соединении fpnc. 1.2) отказ хо- хотя бы одного из элементов приводит к отказу всей системы (система не имеет структурной избыточности). При параллельном, или резервном, соединении (см. рис. 1.1). отказ системы наступает лишь при отказе всех ее элементов (в систему вводятся избыточные элементы). Сочетание основного и резервного Рис. 9.2. Один из вариантов смешан- смешанного соединения элементов 253
§ о. Is и 8 о. ir 2- X I « -Is II ' 4 I 8 II s с o- с с х _ е I #1 §¦1 II а. и е. IS e I |«h X I видов соединений образует смешанное (последовательно-параллельное) сое- соединение, одни из вариантов которого приведен на рис. 9.2. Пусть система состоит из k последовательно соединенных элементов (рис. 1.2), отказы которых независимы, а вероятность безотказной работы (-го элемента в течение времени / равна Pi(t). Тогда вероятность безотказной работы P0(t) и вероятность отказа Q0(t) системы рассчитываются по формулам: Р„М= П /МО. (= 1 П (9.20) (9.21) В соответствии с формулами табл. 9.1 вероятности P9(t) и Q9(f) можно вы- выразить через интенсивности отказов элементов A,j (t), i = 1, 2, ..., k. P0(t) =exp — jX (т) dx =exp — 2 J Q0@=l-exp — JXo(T) . (9.22) (9.23) (9.24) — интенсивность отказов системы. Если отказы элементов описываются однородными пуассоновскими пото- потоками, то Kt (t) = Xi = const и формулы (9.22) и (9.24) принимают вид: Р„@=ехр(-М. *«= (9.25) 2 '= i Когда система состоит из т групп элементов, в каждой из которых име- имеется rij элементов с примерно одинаковой надежностью, то вместо (9.24) и (9.25) пользуются соотношениями: (9.26) 2 Данные по интенсивностям отказов отдельных элементов радиоэлектрон- радиоэлектронных систем берутся из соответствующих справочников. Пусть система состоит из k параллельно соединенных-элементов (рис. 1.1) и отказы элементов взаимонезависимы. Тогда вероятность отказа Qp (t) и вероятность безотказной работы Pp(t) системы в течение времени / соответ- соответственно равны: к k (= 1 = П [1- (=1 l- П [l~ (9.28) где Qt(t) = 1 меви t ' Я|@ — вероятность отказа t-ro элемента в течение вре- 254 255
Связь вероятностей Qp(t) и Pv(t) с интенсивностью отказов определяется соотношениями k ( Г f = П 1-ехр -Г; = 1-П I 1-ехр —f\,.( (9.29) (9.30) Если интенсивности отказов не зависят от времени, то формулы (9.29), (9.30) принимают вид: Qp@= П [1-ехр (-М)Ь (9-31) <= i = 1- П [1-ехр ( — Xt 0]. (9.32) Когда система состоит из т групп, в каждой из которых имеется п.) эле- элементов с примерно одинаковой надежностью, то т П = 1-П [1-ехр (- (9.33) (9.34) При смешанном соединении (рис. 9.2) сначала по соответствующим фор- формулам находится надежность цепи из k последовательно соединенных элемен- элементов, а затем надежность системы из т параллельных ветвей. В зависимости от этапа разработки радиоэлектронной системы приме- применяются различные методы расчета надежности [22, 55, 56, 58]. На начальном этапе проектирования системы (предэскизный проект) проводится прикидоч*- ный расчет, при котором определяются целесообразные нормы надежности для отдельных частей системы (блоков, каскадов) с целью проверки принци- принципиальной возможности выполнения требований по надежности, выдвинутых заказчиком в техническом задании. На этапе эскизного проектирования, после разработки принципиальных электрических схем, выполняется ориентировочный расчет надежности (дипломное проектирование можно отнести к эскизному проектированию, а расчет надежности — к ориентировочному расчету). Ориентировочный расчет производится обычно при следующих, допу- допущениях: система рассматривается как группа последовательно соединенных элементов, интенсивности отказов которых не зависят от времени (поток отказов — простейший); все элементы одного и того же типа имеют одинако- одинаковую надежность независимо от их места расположения а системе; все эле- элементы работают в номинальном режиме, причем отказы элементов считаются независимыми событиями; влияние условий работы учитывается приближенно с помощью поправочного коэффициента. Полный расчет надежности производится после испытания макета в лабо- лабораторных условиях, когда становятся известными реальные режимы работы •лементов, позволяющие уточнить значения интенсивностей их отказов. При этом учитываются влияние схемной зависимости элементов, режимы их работы и другие факторы. 2. Теория массового обслуживания (теория очередей) исследует коли- количественную сторону процессов протекающих в системах массового обслу- обслуживания (СМО). Она устанавливает зависимость между характером потока 256 f заявок (требований), производительностью отдельного канала (обслуживаю- (обслуживающего аппарата), числом каналов и эффективностью обслуживания. Система массового обслуживания включает в себя три элемента: входной поток, обслуживающую систему с одним или несколькими обслуживающими аппаратами и выходной поток. Системы массового обслуживания делятся на системы с отказами (СМО с потерями), системы с ожиданием и системы смешанного типа. В системе пер- первого типа заявка, поступившая в момент, когда все каналы заняты, получает отказ, покидает систему и в дальнейшем процессе обслуживания не участ- участвует (происходит потеря заявки). В СМО с ожиданием заявка, поступившая в систему, когда все каналы заняты, ставится на очередь и ожидает, когда все поступившие ранее заявки будут обслужены. В системах смешанного типа накладываются ограничения на время ожидания заявки в очереди, общее вре- время пребывания заявки в системе, число заявок в очереди и т. д. Наиболее хорошо разработаны системы первых двух типов. В зависимости от условий задачи и целей исследования количествен- количественными оценками качества работы СМО могут быть: средний процент заявок, получивших отказ и покидающих систему необслуженными; среднее время ожидания обслуживания; средняя длина очереди и ее распределение и др. Входной поток (поток заявок) — основной элемент, определяющий про- процессы в СМО. Часто его считают простейшим или стационарным пуассонов- ским потоком, при этом в большинстве случаев удается получить удовлетво- удовлетворительные по точности решения. Для простейшего потока число заявок » промежутке времени т рас- распределено по закону Пуассона 2 (9.35) где X — плотность (интенсивность) потока — среднее число событий в потоке за единицу времени; v = Хх — среднее число событий в потоке, приходящееся на интервал т. Пусть случайная величина Т — промежуток времени между двумя произвольными соседними заявками в простейшем потоке. Тогда функция распределения F\(i), плотность вероятности Pi(t), математическое ожидание mt и дисперсия а} величины Т определяются формулами: е-" р@ = Хе~и, Fx(l) Р (Г < t) = 1 - е-лг, р,@ m( = I/A,, of = 1/А,2. (9.36) (9.37) В случае нестационарного пуассоновского потока выражения (9.35) и (9.36) соответственно принимают вид: vfe />(fe, т, <0) =-^e-v, (9.38) Fiit, <о) = 1— ехр I — "f Pl(t, <o) = [-Тм,,Л]. />0. Зйесь v= K(t)dt (9.39) [(9.40) — математическое ожидание числа заявок на участке от t0 до t0 -f- т, где X(t) — мгновенная плотность потока. 9 Зак. 1203 257
• Выходные потоки СМО часто представляют собой потоки с ограничен- ограниченным последействием (потоки Пальма). Ординарный поток однородных собы- событии является потоком с ограниченным последействием, если промежутки вре- времени между последовательными событиями 7\, Г2, .... есть независимые слу- случайные величины. Простейший поток, в котором независимые величины 7\, Тг, ... распределены по показательному закону, — частный случай потока Пальма. Если все функции распределения fi(<j), за исключением, быть может, FMi), совпадают, то поток Пальма образует поток восстановления 159-61]. Примером потоков с ограниченным последействием являются потоки Эр- ланга, образуемые «просеиванием» простейшего потока [3]. Плотность веро- вероятности закона Эрланга й-го порядка имеет вид <*е ~ц />0, (9.41) где Т = 2 Tt — интервал времени между соседними событиями в потоке Эрланга fe-ro порядка; 7\, Г2 Т^+1 — независимые случайные величины с одинаковыми плотностями вероятностей Pi(tt) = Хе *, /j > 0, i = 1, 2, .... k+ 1. Математическое ожидание и дисперсия величины Г с плотностью вероят- вероятности (9.41) равны щ = (k -f 1)/Х, а? = (ft + 1)Л2. (9.42) где Я, — плотность простейшего потока. Для упрощения иногда удобно заменить реальный поток заявок с пос- последействием так называемым нормированным потоком Эрланга 6-го порядка с примерно теми же математическим ожиданием и дисперсией промежутка между заявками [3]. Плотность вероятности, математическое ожидание и дисперсия нормированной случайной величины Т = Tl(k + 1) имеют вид />0, (9.43) (9.44) где % — плотность потока, совпадающая при любом k с плотностью исходного простейшего потока заявок. Функционирование СМО во многом определяется временем обслуживания одной заявки Год, которое характеризует пропускную способность системы. В общем случае Год — случайная величина. При теоретических исследова- исследованиях и практических расчетах чаще всего предполагается, что величина То§ распределена по показательному закону, когда функция распределения и плотность вероятности определяются соответственно выражениями Fl(t)=\ — е~*', рПО^це1', ' (9.45) где параметр (х — величина, обратная среднему времени обслуживания одной заявки: При показательном распределении времени обслуживания задача до- допускает простое решение, которое с удовлетворительной для практики точ- точностью описывает ход процесса в СМО. Пусть имеется СМО с п обслуживающими аппаратами (л-канальная система), на вход которой поступает простейший поток заявок с плотностью %. Время обслуживания одной заявки одним аппаратом подчинено показа- показательному закону с параметром ц. 253 В этом случае основные характеристики эффективности функциониро- функционирования СМО с отказами (потерями) определяются следующими выражениями. 1. Вероитность того, что в системе занято k обслуживающих аппара- аппаратов (в обслуживающей системе находится точно k заявок); где — вероятность того, что все обслуживающие аппараты свободны; a = АУц = %mt об (9.47) (9.48) (9.49) — среднее число заявок, приходящееся на среднее время обслуживания од- одной заявки (приведенная плотность потока заявок [3]). Подставив (9.48) в (9.47), получим формулу Эрланга: i-i (9.50) 2. Вероятность отказа в обслуживании очередной заявки 3. Среднее число занятых обслуживающих аппаратов (9.52) Система массового обслуживания с ожиданием при ограниченном вре- времени ожидания Тож, распределенном по показательному закону с пара- параметром у, в установившемся режиме обслуживания описывается следующими характеристиками [3]. 1 Вероятность того, что занято точно k обслуживающих аппаратов (очереди нет): ак Рй=-—Ро, 0<й<л. (9.53) й 2. Вероятность того, «то все п аппаратов заняты, s заявок стоят в оче- очереди: nl эо1 П (л + тр) , L«=i J 3. Вероятность того, что все аппараты свободны: « и м Л—1 [ (9.54) (9.65) 259
4. Средняя длина очереди a" sas П (" + Z k\ + n\ (9.56) s-I П 5. Вероятность того, что Р заявка покинет систему необслуженной: ,-| П n! I Т ' П In + /яр) I = 1 J (9.57) теме, В формулах (9.53)-(9.57) п - число обслуживающих аппаратов в сие Р = у/р = v/n/ nfi, (9.58) = Kltlf Об> : об> 1 плотность простейшего потока заявок; \х — параметр показатель- показатель\7емени"обслуживания; V = 1/«, ож - параметр показательного вре- SSSh« (-J.«h- обратная среднему сроку ожидания) ного «еви 7емениобслуж; V , SSSh« (-J.«h-. обратная среднему сроку ожидания) ,. « л-, си^-трмя пеоеходит в CMU с отказами, л при р « данием) при a < n справедливы формулы fe! ^ nl(n-a) ^Гу^_+ -n+i Г, *» L*-o ftI "'(«-«) J О < fe'< n, Pn+8 n!ns Ту Д A! +nl(n-a)J : ожи- .(9.59) (9.60) (9-61) (9.62) 260 Если имеется СМО с ожиданием и число заявок в очереди ограничено, то при простейшем потоке заявок и показательном распределении времени обслуживания формулы для Рк и Pn+S соответственно имеют вид: (9.63) Где т _ число заявок, которыми ограничена очередь. 2. ПРИМЕРЫ 9 1 Семь невосстанавливаемых радиоэлектронных систем по- поставлены на испытания. Реализации времени работы этих систем представлены на рис. 9.3. л . Вычислить статистические показатели надежности И (t), У (t), р\ (t), X* (t), m'-при t = 30 ч и Д* = Ю ч. Решение. В соответствии о определением по формулам (У.ь;— (9.10) имеем: р*ц = 30) = N{t==30) = у = 0,714 (не отказали системы с но- номерами 2, 5, 1, 4, 7), О* (/ = 30) = ni-tz=30) = — = 0,286 (отказали системы с номера- номерами 6, 3), _30)_ я(;+А0-я@_ А1 4—2 7-10 70 - = 0,0286 ч, I7 i i i Рис. 9.3. Распределение време- * ^ ?^ sA\W50jSff 70 80 30 Рис. 9.3. Распределение р ни работы до отказа невосста- невосстанавливаемых экземпляров ра- радиоэлектронных систем At /• t-30 t+At~UO 261
я«+А/)-я(р_ «V (/) А/ = 30)-10 4—2 ' 5-10 = 0,04 ч-1. ¦¦¦+', 55+32+21+83+36+12 + 96 — 7 2i i I = 48 ч. Точность результатов невелика. Она увеличивается с увеличе- увеличением числа No. Для определения точности и надежности оценок еле- дует воспользоваться методами математической статистики (см. гл.4). 9.2. Интенсивность отказов элемента определяется выражением f 1/A00—/), 0</<100ч, ( jo, t<Q,t>lOO4. Определить: 1) вероятность безотказной работы элемента в ин- интервале времени 0—10 ч; 2) среднее время безотказной работы эле- элемента; 3) плотность вероятности отказов. Решение. Для вычисления требуемых показателей надежности воспользуемся формулами, приведенными в табл. 9.1, и выражением (9.5). При t = 10 ч имеем р {t = Ю) = A00 — 10)/100 = 0,9. 100 2) mt = 3) l 100 100 2 1 100 — t = 50 ч. ¦ = 4 -1 100— t 100 100 9.3. Три системы, состоящие из Двух элементов, образованы тре- тремя способами соединения элементов (рис. 9.4). Отказы элементов независимы и описываются простыми пуассоновскими потоками с интенсивностями Ях и Я2. Выключатель абсолютно надежен. Ш 1) б) 0) Рис. 9.4. Три системы, состоящие из двух элементов 262 Требуется: 1) определить вероятности безотказной работы, сред- средние наработки и плотности вероятности отказов для каждой из си- систем; 2) нарисовать зависимости вероятностей безотказной работы систем от времени при Kt — Я2 = Я; 3) сравнить системы по надеж- надежности при Я, = К2 = К. Решение. 1. Вероятность безотказной работы для системы из последовательно соединенных элементов (рис. 9.4, а) определяется формулой (9.25): Используя (9.5), получаем выражение для среднего времени без- безотказной работы о о По формуле из табл. 9.1 находим плотность вероятности отказов Pio(t) = —dP0(t)/dt = (*! + Для системы с параллельным соединением элементов (рис. 9.4, б) соответствующие характеристики равны 2 Яр @ = 1 — П [1 — Pt (t)] = 1 — A - е-*.<)A — е-М) = оо = ехр (—V) + ехр (—Я,,/) — ехр [—(А* + X,)/l, mtp = J" Pv(t)dt= = (Я? + ЯД, + Цу^к, (X, + kt), plp (t) = -dPp (t)/dt - = X, ехр (—к^) Третья система (рис. 9.4, в) работает так. Если первый элемент, начав работать в момент t = 0, откажет через интервал времени Tl = tlt то мгновенно автоматически включается второй элемент. Если отказ второго элемента наступает в момент Т2 = t2 после его подключения, то время безотказной работы системы Т» = Тг + Г2. Поэтому плотвость вероятности отказов третьей системы есть плот- плотность вероятности суммы двух независимых случайных величин: t it- h) dt1 = где р, (t) = X, ехр (—А^), /^ (t) = kt ехр (— Xaf) — плотности ве- вероятности случайных величин Тг и Тг (плотности вероятности по- потока отказов первого и второго элементов). По плотности вероят- вероятности р^х(() найдем вероятность безотказной работы Px(t) и сред- среднее время безотказной работы mix Рх @ = (V-*-' — Я1е-М)/(Я2 — Яг), mtx = (Кг + 263
Рис. 9.5. Вероятности безотказной работы систем, приведенных иа рнс. 9.4 Xt 2. При Кг = Хг = к характеристики систем определяются сле- следующими выражениями: для первой системы P0(t) = ехр(—2ki), пи, = 1/2А,, для второй системы Рр (t) = [2 — ехр (—МI ехр (—М), /п»р = 3/2Л, для третьей системы P*(t) = A + М) ехр (—М), mt3e = 2Д. На рис. 9.5 изображены зависимости вероятностей безотказной работы систем Ро (t), Рр (*), Р* @ от времени при Xt = к2 = Л. 3. Из графиков видно, что наименее надежной является первая система и наиболее надежной — третья. По среднему времени без- безотказной работы третья система лучше первой в 4 раза, а вторая — в 3 раза. Результат справедлив при абсолютной надежности выключа- выключателя. В противном случае, при известной надежности выключателя надежность третьей системы следует вычислять по формулам для смешанного соединения. • 9.4. Определить вероятность безотказной работы аварийной радиостанции за время t3 = 100 ч при заданном 'среднем времени безотказной работы mt3 = 250 ч. Решение. Задача типична для поверочного ориентировочного расчета надежности, когда требуется определить один или несколь- несколько показателей надежности радиостанции (системы) по известным показателям ее элементов. Для расчета нужно воспользоваться техническим описанием и принципиальной схемой радиостанции, а также справочными дан- данными по интенсивностям отказов элементов. Удобно составить таб- таблицу: 264 Наименование элементов 1. Лампы приемно-усилительные 2. Полупроводннковые приборы 3. Резисторы 4. Конденсаторы 5. Трансформаторы 6. Дроссели 7. Катушки индуктивные 8. Батареи заряженные 9. Резонаторы кварцевые 10. Переключатели 11. Разъемы штепсельные Итого Число элементов п. (штук) 4 5 45 42 3 3 5 1 1 3 7 119 Х} • 10' ч~1 2 0,5 0,25 0,15 0,5 0,025 о,ба 7,2 0,3 0,6 0,2 "jj^j- Ю» ч~1 8 2,5 11,25 6,30 1,50 0,075 3,15 7,2 0,3 1,8 1,4 43,5 1. Определяем суммарную интенсивность отказов К= 2 nih =-2 n^ = 43,5.10-e ч-1. /=i /=i 2. Среднее время безотказной работы tnt = 1А,0 = 1/43,5-10~6= = 2,3-103 ч. Расчетное значение больше заданного: mt> mt = = 250 ч. 3. Вероятность безотказной работы радиостанции за время t3 = = 100 ч = 100)= o,96. Целесообразно для 5—8 моментов, времени в пределах от t = 0 до t~> mt определить значение функции Р (t) = ехр (—kot) и пост- построить график зависимости Р (t), по которому можно определить ве- вероятность безотказной работы за любое время t.m При использовании данных по интенсивностям отказов элементов следует соблюдать определенную осторожность. Более точные ре- результаты будут тогда, когда используются данные, полученные по опыту эксплуатации образцов, близких по конструкции и назначе- назначению к рассчитываемой системе. 9.5. В контрольно-поверочную лабораторию поступает пуассо- новский поток приборов с плотностью 4 прибора в час. Определить: 1) вероятность того, что за час в лабораторию по- поступит к приборов, где к = 0, 1, 2, 3, 4, 5, 6, 7; 2) вероятность того, что за время проверки прибора, на которую затрачивается в сред- среднем 30мин, в лабораторию поступит не менее трех приборов. 265
Решение. По условию задачи входной поток — пуассоновский. Поэтому вероятность того, что за время т в лабораторию поступит ровно k приборов, определяется формулой (9.35): Р(/е, r) = 1. В данном случае I = 4, т = 1, k = 0, 1, 2, 3, 4, 5, 6, 7. По- Поэтому P@,l) = -Lе~4 ~ 0,0183, ЛA,1) = — е-4 ~0,0733, 1 1! РB,1)~ 0,147, РC, 1)~0,195, Я D, 1)~ 0,195, Я E, 1)~ 0,156, РF,1) ~ 0,104, Р G,1)~ 0,0595. fe = 0 Ь Найдя значение суммы У -^— e~v, получим где v = Хт = 4A/2) = 2. Следовательно, P(k^3, 1/2) = 0,323. 9.6. На вход системы обслуживания поступает простейший по- поток заявтэк с плотностью Я = 4 заявки в час. Время обслуживания распределено по показательному закону, причем среднее время об- обслуживания одной заявки tnt об = 15 мин. Вычислить: 1) количество необходимых обслуживающих аппа- аппаратов, чтобы вероятность отказа в обслуживании заявки не превы- превышала 0,01; 2) вреднее число занятых аппаратов; 3) вероятность P(k ^ 3) того, что будет занято не менее трех аппаратов. Решение. Имеем ц = \1т1оЪ = 1/0,25 = 4, а — X/\i = 1. 1. По формуле (9.51) вероятность отказа в обслуживании Необходимо найти такое число «, чтобы вероятность Ротк не пре- восходила 0,01. При п = 4 имеем +Jr+-l.+^+Jr)]-ai 0,0154» при .п = 5 получи»! гее Таким образом, чтобы выполнить условие Ротк димо иметь 5 обслуживающих аппаратов. 2. Согласно (9.52): 0,01, необхо- необхоm, = P( ^ *= i = 0,368 (l (А-1I = о,368 (fe-l)! J.+ J.+J.^ 0,996. 3. = P3+ P4+ P6, P3 = -^- Po = — 0,368 = 0,0614, P4 = 0,0153, P5 = 0,00306. Следовательно, Р (/г ^ 3) = 0,0798. 9.7. Для уничтожения вновь обнаруживаемых воздушной раз- разведкой наземных целей выделен наряд из пяти батарей. Число об- обслуживаемых целей представляет собой простейший поток с плот- плотностью к = 8. Время обслуживания подчинено показательному закону. Среднее время обработки одной батареей одной цели mt об = = 30 мин. - Определить: 1) наличие установившегося режима работы СМО; 2) вероятность того, что при поступлении очередной заявки на об- обстрел все пять батарей будут свободными; 3) среднюю длину очереди. ' Решение. 1. По условию, ntto6 = 30 мин. Следовательно, р. == = 1/т*об = 2, а — Х/р. = 4. Так как а< п, то установившийся режим существует. . 2. По формуле (9.59) находим = 0,0129. 3. Согласно (9.62) получим п-п\ A —а/пJ 5.5Ц1-4/5J 0,0129 = 2,2. 9.8 [31. На станцию текущего ремонта автомашин поступает про- простейший поток заявок с плотностью X = 0,5 машины в час. Имеется помещение для ремонта одной машины. Во дворе станции могут од- одновременно находиться, ожидая очереди, не более трех машин. Среднее время ремонта одной машины mt Об = 2 ч. Найти: 1) пропускную способность системы; 2) среднее время простоя станции; 3) насколько изменятся эти характеристики, если оборудовать второе помещение для ремонта. Решение. Имеем X = 0,5, р. = 0,5, а = 1, т = 3. 267
1. По формуле (9.64), полагая п — I, находим вероятность того, что пришедшая заявка покинет систему необслуженной: Р„ = /\+з = 1/A + 1 + 3) = 0,2. Относительная пропускная способность системы q = 1 — Ря = 0,8. Абсолютная пропускная способность Q = kq — 0,4 машины в чал. 2. Среднюю долю времени, которое система будет простаивать, найдем по формуле (9.63): Ро = 1/5 = 0,2. 3. Полагая п = 2, находим q = 1 — Ян = 0,979, т. е. удовлетворяться будет около 98% всех заявок; Q = kq — 0,49 машины в час Относительное время простоя Яо = 16/47-= 0,34, т. е. оборудование будет простаивать полностью около 34% всего времени. 3. ЗАДАЧИ И ОТВЕТЫ 9.1. Наработка Т системы до отказа подчинена экспоненциаль- экспоненциальному закону с постоянной интенсивностью к. Показать, что вероятность безотказной работы P(t), функция распределения Fx (t), плотность вероятности pt (t), математическое ожидание mt, и дисперсия а? величины Т определяются формулами Я@ = e~w, FAt) = 1 — е-м, МО = te~w, mt = l/k, of = \/k2 9.2. Наработка системы до отказа описывается экспоненциаль- экспоненциальным законом с параметром к = 10~3 ч-1. Определить: 1) среднюю наработку до отказа; 2) вероятность безотказной работы в течение t = 200 ч. Ответ: 1) mt = 1000 ч; 2) Р (( = 200) = 0,82. 9.3. Интенсивность отказов самолетных генераторов в течение периода нормальной эксплуатации практически является постоян- постоянной величиной и равна 0,021-10~3 ч. Вычислить для времени наработки генератора t = 500 ч вероят- вероятность безотказной работы, вероятность отказа, плотность вероят- вероятности отказов и среднее время безотказной работы. Ответ: ЯE00)~0,99, Q E00) = 0,01, /эх E00) ~ ~ 0,021-10-3 ч-1, mt = 476-102 ч. 9.4. Время работы элемента до отказа описывается экспонен- экспоненциальным законом с параметром к = 2,5-10~5 ч~г. Вычислить показатели надежности элемента Р (t), pt (t), mt при tx = 500 ч и t2 = 1000 ч. Ответ: Р E00) ~ 0,986, Я A000) = 0,975, рг E00) = 2.47Х X Ю-5 ч"\ PiA000) = 2,44-Ю-5 ч-1, mt = 4-104 ч. 9.5. Интенсивность отказов элемента 31 @ — at, где а — постоян- постоянная величина. 268 Определить: 1) плотность вероятности отказов; 2) вероятность безотказной работы элемента в течение средней наработки до отказа Ответ: 1) pY{t) = atexp (—at2/2); 2) P (mt) = 0,46. 9.6. Плотность вероятности отказов радиотехнической сис- системы @,002 exp (-0,0020, />0, I о, /<о. Найти функцию распределения F1 (t) и вероятность того, что вре- время безотказной работы системы превысит 500 ч. Ответ: 1 —ехр(— 0,0020, *>0; 9.7. Время работы изделия подчинено закону Релея с параметром распределения а =¦ 1000 ч. Определить показатели надежности изделия Р (t), p1 (t), к (t), mt для t = 500 ч. Ответ: Р E00) = 0,88, р1 E00) = 0,44-10 ч~\ к E00) = = 0,5-Ю-3 ч-1, mt = 1253 ч. 9.8. Суммарный налет самолетов составляет 5000 ч. За это по- полетное время произошло 14 отказов в бортовых радиоэлектронных комплексах. Оценить с надежностью р = 0,9 среднее время безотказной ра- работы комплексов. Ответ: 242 ч < mt < 614 ч. 9.9. Элемент имеет экспоненциальные законы распределения вре- времени работы и времени восстановления с параметрами соответствен- соответственно к = 0,04 ч и A = 2 ч-1. Вычислить: а) вероятность безотказной работы и вероятность от- отказа за время /=2ч; б) среднее время безотказной работы и среднее время восстановления. Ответ: а) Р B) = 0,923, Q B) = 0,077; б) т0 = 25 ч, тв = = 0,5 ч. 9.10. Аппаратура связи работала по 8 ч ежедневно в течение 30 дней. За это время было два отказа, на устранение которых за- затрачено 5 ч. Определить коэффициент готовности аппаратуры. Ответ: 0,98. 9.11. Восстанавливаемая система с экспоненциальными распре- распределениями времени безотказной работы и времени восстановления имеет коэффициент готовности КТ = 0,95. Вычислить вероятность безотказной работы системы в течение t = 10 ч, если среднее время восстановления тъ = 5 ч. Ответ: РA0) ~ 0,9. 9.12. В результате испытаний двух радиостанций одного и того же же назначения установлено, что у первой из них наработка на отказ в два раза больше, чем у второй,.а среднее время восстановления 269
первой радиостанции в пять раз больше, чем у второй, и составля- составляет одну десятую наработки на отказ. Вычислить коэффициенты готовноти К'г, и Кг, радиостанций и оценить их эксплуатационную надежность за время 1Ъ. Ответ: Кг, с* 0,91, Кг, ш 0,975. Эффективность использова- использования первой радиостанции меньше из-за более длительных вынуж- вынужденных простоев. 9.13. Радиостанция состоит из двух блоков, причем наработка на отказ первого блока равна т01 — 25 ч, второго — т02 = 100 ч. Среднее время восстановления первого и второго блоков соответст- соответственно равны mBl = 1 ч, тВг = 6 ч. Отказы блоков независимы. Станция отказывает при отказе любого блока и считается неработо- неработоспособной до тех пор, пока не будет отремонтирован отказавший блок. Определить коэффициент готовности Кг радиостанции. Ответ Кг = 0,91. 9.14. По статистическим данным, полученным для десяти отка- отказов радиоэлектронной системы, произвести с достоверностью 90% эксплуатационную оценку коэффициента готовности, если известно, что среднестатистическое время между отказами то = 100 ч, а сред- среднестатистическое время восстановления неисправной системы ml = = 10 ч. Ответ: 0,864 < Кг < 0,966. 9.15. Проектируемое радиотехническое устройство должно вклю- включать три последовательно соединенных блока. Расчеты показали, что интенсивности отказов первого и второго блоков составят ^ = = 0,008 ч и Я2 = 0,032 .ч- Время безотказной работы каждого из блоков распределено по показательному закону. Определить интенсивность отказов ка третьего блока, при которой вероятность безотказной работы устройства в течение времени / = = 1 ч равна 0,95. Ответ: Ха = 0,0113 ч. 9.16. Система телеизмерений состоит из основного и трех резерв- резервных каналов, находящихся в ненагруженном режиме, причем пе- переключающее устройство считается абсолютно надежным. Каждый из каналов имеет показательное распределение наработки до отка- отказа с интенсивностью отказов к — 10~2 ч. Определить среднюю наработку до отказа и среднее квадрати- ческое отклонение наработки до отказа системы. Ответ 1571 щ = 400 ч, at = 200 ч. 9.17. Сметена образована смешанным соединением элементов (рис. 9.6). Все элементы имеют одинаковую интенсивность отказов 49 А Рис, 9.6. Система со смешанным соединени- соединением элементов 270 Вычислить показатели надежности системы Р (t), Q (/), р (Л, т. О P(t) 22Xt 3" Q(t) 1 22W 3" Ответ: Pl(t) = (), Q (), р (, P(t) = 2e~2Xt — е~3", Q(t) = 1 — 2e~2W + e~3 *u ЗА*") 2/3* m Q = 2/3*,. ) t 9.18. Радиостанция состоит из шести блоков с известными зна- значениями интенсивностей отказов Xh i = 1, ..., 6, интенсивность от- отказов датчика опорных частот^ = 54,34-10~5 ч-1, приемовозбуди- теля к2 = 58,7Ы0~5 ч, усилителя мощности кз = 61,16-10~6 ч-1, согласующего устройства %k = 42,14-10~5 ч~', блока питания \ = = 64,91 10~5 ч~\ пульта управления кв = 4,15-10~5 ч. Требуется: а) произвести ориентировочный расчет надежности радиостанции; б) определить коэффициент простоя радиостанции, если среднее время, необходимое для обнаружения и устранения неисправности, равно 2 ч. Ответ: а) Хо =±= 285,41 • Ю ч; б) mt = 351 ч, Р @= ехр (—285.4Ы0-6 0; в) 0,00567. 9.19. На систему массового обслуживания поступает простейший поток заявок с плотностью к. Требуется: 1) определить, при каком значении /вероятность по- поступления в СМО точно k заявок за интервал времени t достигает наибольшего значения; 2) построить зависимость P(k, t) при X = 1 и k = 0, 1,2, 3. Ответ: 1) t = kll (k = 0, 1, 2, ...). 9.20. Поток отказов радиотехнической системы является прос- простейшим с интенсивностью 0,02 отказа в час. Найти вероятность того, что за 10 ч работы в системе: а) не появится ни одного отказа; б) по- появится хотя бы один отказ; в) появится один, два, три отказа. Ответ: а) Р@,10) = 0,819, б) P(k > 1,10) = 0,181, в) р A,Ю) = 0,164, РB, 10) = 0,164, РC, 10) = 0,00109. 9.21. Число элементарных частиц, попадающих в аппаратурный отсек космической ракеты за время ее полета t, представляет собой простейший поток с плотностью к. Условная вероятность для каж- каждой из частиц попасть в уязвимый блок равна р. Определить вероят- вероятность попадания в уязвимый блок: 1) ровно k частиц; 2) хотя бы одной частицы. Ответ'. -ktp), 2) 9.22. Опыт показал, что в ЭВМ происходит в среднем одна ошиб- ошибка за 10 ч работы, а поток ошибок можно считать простейшим. Вычислить вероятности неправильного решения задачи на маши- машине, если продолжительность решения составляет: а) 1 ч, б) 10 ч. Ответ: а) 0,095; б) 0,632. 9.23. Число отказов радиотехнической системы представляет собой простейший поток с интенсивностью 0,005 ч~1. 271
Вычислить: а) вероятность безотказной работы системы за t = = 20 ч; б) математическое ожидание и дисперсию времени безотказ- безотказной работы системы. Ответ: а) Я@, t) = 0,905, б) щ = 200 ч, of = 4-10* ч2. 9.24. Показать, что поток заявок, у которого интервалы между заявками взаимно независимы и распределены по одному и тому же показательному закону рх (t) = ke~xt, является пуассоновс- ким. 9.25. Доказать, что для нестационарного пуассоновского потока заявок функция распределения и плотность вероятности случайной величины Т (интервал времени между соседними заявками) имеют вид t,-\ MU0)=l-exp - j i-T %(t)dt } где /0 — параметр распределения (момент появления первой из двух соседних заявок). 9.26. Мгновенная плотность нестационарного пуассоновского входного потока заявок представляет собой линейную функцию времени: к (/) = а + Ы. Определить плотность вероятности случайной величины Т — промежутка времени между соседними заявками. Ответ [31: pt (t, t0) = la + b (t0 4- t)]exp (—at — btot — btV2). 9.27. Нестационарный пуассоновский поток вызовов на теле- телефонную станцию имеет мгновенную плотность вида k(t)~ ' = к A — cos 2at). Найти среднюю плотность потока вызовов за промежуток време- времени от t0 до tQ + t. Ответ [59]: \(t,to) = k\l— cosa(/ 9.28. На вход обслуживающей системы поступает простейший поток заявок с интенсивностью к и интервалами между заявками Tlt T2, ..., 7\, Th+1, ..., которые явшяются независимыми слу- случайными величинами. 4+1 Показать, что плотность вероятности интервала Т = 2 Tt опре- деляется выражением 9.29. Доказать, что при показательном законе распределения времени обслуживания распределение длительности оставшейся части работы по обслуживанию не зависит от того, сколько оно уже продолжалось. 272 9.30. В результате анализа системы массового обслуживания ус- установлено, что функцию распределения Fx (t) времени обслужива- обслуживания ToG можно описать выражением Fl(t) = 1 - 1/A +02, где t — время, мин. Определить: а) вероятность Я, того, что время обслуживания заявки не превзойдет 5 мин; б) среднее время обслуживания одной заявки; в) вероятность Р2 того, что за это время обслуживание оче- очередной заявки будет закончено. Ответ: а) Ях = 0,972, б) т,об = 1 мин, в) Р2 = 0,75. 9.31. Группа из п самолетов производит поиск малоразмерного объекта. Каждый самолет действует независимо от других. Поиск прекращается, как только объект обнаружен одним из самолетов. Пусть закон распределеления времени поиска каждым самолетом— показательный, причем среднее время поиска для каждого самолета соответственно равно 1 /ix,, l/ji2, ..., 1/цп- Показать, что: 1) функция распределения времени поиска всеми п самолетами имеет вид .МО = 1 - ехр |—(ц! + fi2 + ... + (!„)*]; 2) математическое ожидание и дисперсия времени поиска при (ix = jia = ... — \in = \i соответственно равны "'об - 9.32. Частица, попавшая в счетчик Гейгера—Мюллера, .вызывает разряд, длящийся время т (т — постоянно). Попавшие за это время в счетчик новые частицы не регистрируются им. Считая, что распре- распределение числа частиц, попавших в счетчик, подчиняется закону Пуассона, найти вероятность того, что счетчик за время t> 0 со- сосчитает все попавшие в него частицы Ответ [62]: Я@=е~" где к — среднее число частиц, попавших в счетчик за единицу вре- времени. 9.33. В автопарк, рассчитанный на п мест, прибывает простей- простейший поток машин с интенсивностью А. до тех пор, пока имеются сво- свободные места. Найти дифференциальные уравнения для вероятностей Ph (t) того, что ровно k мест заняты. Ответ [5]: -?- Ph (t)= ~ at at Pk (t) +kPh-1@ + 4 at 9.34. Сколько оборонительных комплексов п должна иметь обо- оборонительная система, чтобы вероятность ее прорыва противником не превышала 0,02, если на данном направлении действует простей- простейший поток целей противника с плотностью к = 4, время обстрела 273
одной цели одним оборонительным комплексом распределено по по- показательному закону с параметром ц = 2, а вероятность поражения цели при одном выстреле (залпе) равна единице. Ответ: п = 6. 9.35. На станции п телефонов-автоматов, обслуживающих в среднем N человек. Вероятности одновременного разговора k че- человек распределены по закону Пуассона Раздел Найти среднее число абонентов, стоящих в очередях к автоматам. N .„ ... Ответ: т = 2 (Xxf где 9.36. Узел связи обслуживает 1000 абонентов, каждый из кото- которых в среднем занимает линию связи в течение 6 мин за час. Какое число каналов п надо иметь, чтобы исключить длительные ожида- ожидания (вероятность того, что максимальное число одновременно по- поступивших вызовов превысит число каналов, не должна превышать 0,3%). Ответ: п = 128. 9.37. Для охраны района выделено 10 кораблей, ремонт которых обеспечивают два дока. Каждый док может одновременно принять для ремонта один корабль. В док карабль ставится тогда, когда он5 не может нести охрану и нуждается в ремонте. Вероятность того, что корабль за время t потребует ремонта F (t) — 1 — ехр (—0,02/), где t — время, мес. Предполагая, что в среднем на ремонт одного корабля затрачи- затрачивается два месяца, а время ремонта подчиняется показательному закону, определить: а) среднее число кораблей, находящихся в ре- ремонте; б) вероятность того, что для охраны района будет иметься не менее 8 исправных кораблей. Ответ [63]: a) mh = 0,395; б) Р (k > 8) = 0,99. 9.38. В систему с одним обслуживающим аппаратом поступает простейший поток заявок с плотностью к = 9,8 заявки-в минуту. Число обслуженных заявок подчиняется закону Пуассона, причем среднее число обслуженных заявок в минуту равно 10. Определить: а) математическое ожидание длины очереди; б) ве- вероятности того, что в очереди находится 0, 1, 2 заявки; в) вероят- вероятность того, что вновь поступившей заявке совсем не придется ждать; г) среднее время ожидания. Ответ: а) та = 49, б) Яо = 0,02, Рг = 0,0196, Р2 = 0,0192, в) Ро = 0,02, г) т1он( = 4,9 мин. f f I ВОЗДЕЙСТВИЕ СЛУЧАЙНЫХ ПРОЦЕССОВ НА ЭЛЕМЕНТЫ РАДИОТЕХНИЧЕСКИХ УСТРОЙСТВ 10. ВОЗДЕЙСТВИЕ СЛУЧАЙНЫХ ПРОЦЕССОВ НА ЛИНЕЙНЫЕ СИСТЕМЫ I. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ При рассмотрении преобразований случайных сигналов линейными сис- системами можно пользоваться аппаратом дифференциальных уравнений, им пульсиыми характеристиками и комплексными частотными характеристика- характеристиками систем. В общем случае, когда интересуются как нестационарным, так и стацио- стационарным режимами работы системы и начальные условия в системе ие нулевые, целесообразно использовать аппарат дифференциальных уравнений. При ну левых начальных условиях удобнее пользоваться импульсными характе- характеристиками. С комплексными частотными характеристиками обычно опери- оперируют в том случае, когда интересуются лишь стационарным состоянием ли- линейной системы. Типовые задачи, связанные с преобразование* случайных арсмссов ли- линейными системами, можно разбить на две группы: 1. Задачи, требующие определения математических ожиданий, корреля- корреляционных функций и спектральных плотностей процессов на выходе линей- линейных систем. 2. Задачи, требующие определения функций распределения выходного случайного процесса. Очевидно, что из решения задач второй группы может быть получено решение задач первой группы. Однако, за исключением того важного, хоть и частного случая, когда воздействующий на линейную систему процесс | (t) является гауссовским, не существует метода, который позволял бы на- находить непосредственно плотности распределения вероятностей для процесса Г) (t) на выходе системы. В общем случае задачи второй группы приходится решать путем вычисления корреляционных функций выходного процесса Г) @ с последующим определением характеристических функций и соответ- соответствующих им плотностей распределения вероятностей pn(r\lt tj2 т)„; tlt t2, ..., tn). Ниже приводятся формулы, по которым ^находятся корреляционные (или моментные) функции процесса на выходе линейной системы при извест- известных корреляционных функциях процесса на входе. Рассмотрим систему, описываемую линейным дифференциальным урав- уравнением с постоянными или зависящими от времени коэффициентами: an{t) dn 1F 274 275
Здесь |@ — процесс на входе системы, характеризуемый математическим ожиданием m^(t) = М {? @) и корреляционной функцией Вводя оператор р = d/dt и операторы Л (р, t) и В (р, /), определяемые равен- равенствами В(р, 0 (Ю.2) 2 / = 0 дифференциальное уравнение A0.1) можно привести к следующему опера- операторному соотношению [64]: A (p,t) ц (t) = В (p,t) I (t), A0.3) Из A0.3) формально следует равенство, определяющее сигнал на выходе системы в явном виде: B(p, t) А (Р, t) Оператор = L(p, t)l(t). B(P,t) A0.4) A0.5) A(P, t) называется линейным однородным оператором системы. Динамическая сис- система с оператором A0.5) линейна, так как при решении дифференциального уравнения A0.1) применим принцип суперпозиции. Линейным неоднородным оператором Lx(p, t) называется сумма линейного однородного оператора и некоторой заданной функции / (t) \Lx(p, t)= L(p, t) + f(t). A0.6) Путем вычитания из A0.6) функции f (t) любой неоднородный оператор мо- может быть приведен к однородному. Из A0.4) можно получить следующие соотношения, определяющие мате- математические ожидания и корреляционные функции процессов на выходе ли-t нейных систем через их операторы и статистические характеристики входных процессов [64]: ,@= L(p, t)mi(t), A0.7) R^ti, t2) = L (p, tx) L (p, ts) /?.(/„ t2). A0.8) Неоднородность оператора системы на значении корреляционной функции не отражается, а при нахождении математического ожидания она должна быть учтена добавочным слагаемым. При заданном операторе линейной системы принцип суперпозиций по- позволяет свести исследование реакции системы на произвольное воздействие к исследованию реакции системы на типовое воздействие. В качестве типового обычно используется импульсное воздействие в виде дельта-функции или гармоническое колебание. Реакция предварительно не возбужденной линейной системы на воздей- воздействие в виде дельта-функции называется импульсной характеристикой сис- системы h (t). Если оператор системы определяется формулой A0.5), то эта реак- реакция может быть установлена в результате решения линейного дифференци- дифференциального уравнения ап @ —ПГ h @ + l-ai (t) —h (t) +a0 (t) h (t) =. dtn dm r- d A0.9) 276 при нулевых начальных условиях. При этом процесс иа выходе линейной системы определяется интегралом Дюамеля: r\(t) о ' [h(x)l(t—x)dx. A0.10) Jo Используя A0.10), получаем следующие формулы для математического ожидания и корреляционной функции на выходе системы [1]: R (tlt h(tx— ¦ A0.11) A0.12) Для высших корреляционных функций (т. е. n-мерных центральных моменг ных функций л-го порядка) имеем: h t, I, 0 0 0 4)h(tt—x9)h(ta — xa) X X R3t (Ti, Ta, т3) dxi dxt dx3 , A0.13) Hnn(l " Jo Jo —Ts)...A(/n—tn)x , x2, •.., xn) dx\ dx% ... dxn ¦ Применительно к стационарным входным процессам % (t) формулы A0.11)—A0.13) принимают вид t кг A0.11а) t, t. | j о о t, t. r (tu <„)= | j h(U— о о R3n(h, h, <a) n n к I J ) h(h- 0 0 0 Xi)h(t2-xi)h(t3-x3)X x R3l <x2—xu xs— A0.12a) (!0.13a) В случае линейных пассивных систем с затуханием по истечении доста- достаточно большого времени от момента t« 0 случайный процесс %\(t) будет приближаться к стационарному. Для стационарного процесса формулы A0.11)—(Ю. 13) преобразуются к виду [1,14] h(x)dx. )=Jh(x)dx О A0.116) + )i( A0.126) Xl\ 'j h(Xi+x-y)h(x2+x-z) X —°° —°° xR4(y,z)dydz. A0.136) 277
Таблица 10.1 S Комплексные частотные и импульсные характеристики простейших линейных систем "Л е-. •- li1"" Схема Г C^J 1 ; ©«» * L \w оо Х(/со)= f hWe-i®' dt 0 R R+jaL jaL R+jaL 1 1 +juRC OO h U)=— f ^Г(/со) e/mt dco OO Te _Le RC* RC 1 jaRC ш»)+/2аш , a = R/2L ш,е °" sin ш0?-
Продолжение табл. 10.1 Схема Гауссовский фильтр Идеальный полосовой фильтр оо ^¦(/со)=Гл(Ое~/со'й/ 0 /2сссо# К-со2)+/2асо' Шо-1/УГС, «-1/2ЛС \ Я /СО—С00\2 5 — / (со —со0) /0 е 2 V Лео } Дсо <С CDo —/(со—cod t» Дш . Дсо е \ соо—— <со <со0+ —. Дсо Дв 0, ш<й,-—, СО>со0+ — ОО МП=— Г 3CU<a\ №<tu 2л J — оо СОоЬ J 0 Xsin cooU—x)l(x)dx, coo > а Дсо 2я я/2"е . Дсв(<—10) sin . Дсо 2 p/to<» 2я Дсо (Г—<0) 2 Идеальный интегратор sin соГ соГ 2 1 —. о, Идеальный интегратор J_ /со 1, 0 < t <oo, .0, Идеальная дифференцирующая цепь /со tti Интегрально-дифференцирующая цепь (\+iaT{)(l+i<oTa)
В заключение укажем, что взаимная корреляционная функция для про- процесса | (/) на входе линейной системы и выходного процесса r\(t) равна t, KE4('i.'i)=J. Т) !, Т) Л. Если процесс | (/) стационарен, то x, /2) = } ft(r—т)/?,(/,—т)Л. A0.14) A0.14а) Подавая на вход линейной системы гармоническое колебание дг (t, ш) ехр (/соО и решая уравнение A0.15) определяющее работу системы, находим, что решение A0.15) представляет собой в общем случае комплексную функцию действительных аргументов /, со. Выделим из функции Ж^, /со) множитель ехр (/со/), т. е. представим решение в виде Жх (/. /со) = ЛГ (/, /со) е'ш' = | Л1 (Г, /со) | е' Агг Х ""> е'Ч (Ю-16) наглядно показывающем изменение амплитуды и фазы воздействия х (/, со) = ¦= ехр (jat) при его прохождении через линейную систему. Функцию^" (t, /со) называют комплексной частотной характеристикой системы, в общем случае оиа зависит не только от частоты со, но и от времени t. При помощи этой функции легко вычисляется спектральная плотность 5^ (со) процесса ц (t) на ЕЫходе линейной системы: ) |/, /со) |2 =ST)(<o, /)• A0.17) Здесь S| (со) — спектральная плотность воздействующего на систему случай- случайного процесса \ (t). Комплексная частотная характеристика системы с постоянными пара- параметрами и ее импульсная характеристика связаны друг с другом преобразо- преобразованием Фурье: 2л .1 е/@/ Ао, A0.18) СО /(о)=]' h(t)e~i0)'dt. A0.19) о Выражения Ж (/со) и /i (/) для некоторых простейших линейных систем с по- постоянными параметрами приведены в табл. 10.1. 2. ПРИМЕРЫ 10.1. На вход дифференцирующего устройства поступает случай- случайный процесс \ (t) с математическим ожиданием mg (t) = sinfit и корреляционной функцией Определить математическое ожидание тц (t) и дисперсию Ол (/) процесса ц (t) на выходе системы. 282 Рис. 10.1. Интегрирующая цепочка RC iff) t X Решение. Случайный процесс т) (t) на выходе системы (реакция) связан с воздействием |(/) оператором дифференцирования: . r\(t) = L (p, t) I (t) = d\ (t)ldt. Применяя формулы A0.7) и A0.8), имеем тц @ = — mt @ = cos — 2о(/,- /J Полагая /2 = к = ^ находим /?л (t, t) = Ол = D4 10.2. На цепочку RC (рис. 10.1), начиная с момента t — 0, воздействует -случайное напряжение | (t), представляющее собой стационарный белый шум с математическим ожиданием mj и корре- корреляционной функцией КЕ (т) = (iV0/2) 5 (т). A0.20) Определить математическое ожидание тп (t) и корреляционную функцию R^ih, t2) напряжения т) (t) на емкости С. Решение. Дифференциальное уравнение для исследуемой схемы имеет вид <1ц (t)!dt + ац (t) = og it), a = \IRC. A0.21) Будем считать, что в начальный момент времени емкость С раз- разряжена, т. е. ц @) = 0. В общем случае т) @) может быть отличным от нуля и носить как детерминированный, так и случайный характер. При нулевых начальных условиях решение уравнения A0.21) имеет следующий вид: т) @ = ае~ at f еа* | (х) dx, о в соответствии с чем математическое ожидание случайного процесса r\ (t) на выходе цепочки RC равно ц (/) = Af {л @} = ote-«' J e« M о еалг " (еа! — 283
Таким образом, График этой зависимости приведен на рис. 10.2. Корреляционная функция случайного колебания r\ (t) на выходе цепочки RC согласно определению равна: о о Учитывая, что по условию задачи R% (т) = (Nnl2)b (т), находим h R4 (t, ^)=a2e-a « + <•> [ \ еа<*+*> б (у—х) dxdy. A0.22) При вычислении интеграла / = С f e<xu+4,) 8(y—x)dxdy A0.23) о о необходимо иметь в виду, что формула '/(z) 6 (zo-z)dz =/(*«) справедлива лишь при е>0, т. е. когда особая; точка z = z0 лежит внутри пределов интегрирования. Области интегрирования в A0.23) при г > 0 и т < 0 изображены соответственно на рис. 10.3, а и б. Дельта-функция б (у — х) обращается в бесконечность, как это следует из рис. 10.3, лишь на том участке биссектрисы координат- координатного угла плоскости переменных х и у, который определяется наи- наименьшим из пределов t или tv Поэтому при вычислении интеграла A0.23) оба предела нужно полагать одинаковыми и равными наи- наименьшему. т<0 ^ X tj t X Рис. 10.2. Нарастание матема- математического ожидания а) $) Рис. 10.3. Области интегрирования 284 Рис. 10.4. Нарастание дисперсии Так, при т>0 наименьшим из пределов интегрирования яв- является '* (/х = t + т и, следовательно, ^ > 0- Поэтому I ( - *р С > = С f e" i*+« б (г/- *) dxdy - еал: dx\ е°* б (у-х) dy = о о A0.24) t t *) J 0 0 о Подставляя A0.24) в A0.22) и производя замену tx — t + т (т> 0), имеем: #„ (t, т) = (aiV0/4) е~" A — е~2а(), т > 0. A0.25) При т < 0 наименьшим из пределов интегрирования является двательно р и, следовательно, о — x)dxdy= . —1). A0.26) Подставляя A0.26) в A0.22) и заменяя t через tt — т (т < 0), имеем Я„ (t, т) = (аЛ^о/4) е^ A — e~2a(.). i<0. A0.27) Объединяя A0.25) и A0.27), получаем следующее выражение для корреляционной функции R^(t, т) случайного напряжения r\(t) на конденсаторе емкостью С: /?„"(/, т) = (oJVo/4) e-« i ч A — е-2а0- A0.28) Полагая в A0.28) т == 0, найдем дисперсию D^(t) случайного процесса r\ (t) D4(t) = График этой зависимости приведен на рис. 10.4. Сравнивая функ- функцию Dt,@ с графиком /Пт) (t) на рис. 10.2, нетрудно установить, что до- достижение дисперсией уровня 0,95D,,(oo) происходит за время уста- установления ty — 1,5 R С, т. е. вдвое быстрее, чем достижение уровня 0,95 Шц (оо) математическим ожиданием пгц (t). 285
В стационарном режиме пцЦ) = mi = /щ, Rn (t, х) = (aN0/4) е~а1т1 = #„(т), От, @ = aiV0/4 = Dr, 10.3. Работа пропорционально-интегрирующего фильтра (рис. 10.5) описывается линейным дифференциальным уравнением первого порядка: l{t) = L(p)l{t). A0.29) Для фильтра, изображенного на рис. 10.5, а, коэффициенты Т и Г, соответственно равны (см. табл. 10.1): Т = С (R + RJ, Тх = RtC, а для фильтра рис. 10.5, б: На вход фильтра поступает случайное напряжение ? (<), пред- представляющее собой стационарный гауссовский белый шум с нулевым математическим ожиданием mj = 0 и корреляционной функци- функцией A0.20). Определить спектральную плотность Бц (и) и корреляционную функцию Rr) (т) напряжения r\ (t) на выходе фильтра. Решение. В соответствии с A0.29) комплексная частотная харак- характеристика пропорционально-интегрирующего фильтра ЯГ(/со) = L (р = /<й) = A + /со7\)/A + /соТ), а квадрат ее модуля определяется выражением |Л"(/Ъ)| 2 = A + ((о7,)а!/[1 + (юГJ1. A0.30) Подставляя в A0.17) соотношение A0.30) и спектральную плотность входного Шума Sg (и) = iV0/2, находим спектральную плотность процесса ц (t) на выходе фильтра: 5пИ = - , .+(»п.- Aаз1) График спектральной плотности S4 (со) на' выходе пропорцио- пропорционально-интегрирующего фильтра представлен на рис. 10.6. Видно, что при со->- оо и ТхфТ спектральная плотность S4 («•) стремится к некоторому постоянному уровню, равному N0TV2T*. Если по- Рис. 10.5. Два парианта схемы пропорционально-интегрирующего фильтра 286 Рис. 10.6. Спектральная плотность на выходе пропорционально-интегрирую- пропорционально-интегрирующего фильтра i Noi У ,Ц(а) т_т V И, TfZ f а стоянные времени Г, и Г равны, S4 (со) = NJ2, т. е. процесс на выходе фильтра в этом^ случае равен входному белому шуму. При 7\ = 0 пропорционально-интегрирующий фильтр ведет себя как обычная интегрирующая це'пь RC. Для вычисления корреляционной функции Rn (т) воспользуемся формулой Винера—Хинчина: оо A0.32) После подстановки A0.31) в A0.32) имеем 2 2я Производя далее замену eiax = cos ют + /sin сот, находим: IOO \ —±-±—— cos coxdco + J —C0 оо . f* 1 +(й)Г A0.33) Второй интеграл в A0.33) в силу нечетности подынтегральной функции и симметричности пределов равен нулю, поэтому A0.33) приводится к виду Г2 \ С С ¦\ j \ cos сотою— I ' I J J I оо —оо 287
Учитывая, что 1171 со I coscordo) = б(т), 2я J со I l-Hco7V = —е-1т|/г Г окончательно получаем Г2 A0.34) т)(т) 2 [т ) При Т = 7\ из A0.34) имеем В случае 7\ = 0 что согласуется с результатами примера 10.2. График корреляцион- корреляционной функции A0.34) приведен на рис. 10.7. 10.4. На цепь, составленную из последовательно соединенных индуктивности L и сопротивления R (рис. 10.8), воздействует напряжение g (t), представляющее собой белый шум с нулевым ма- математическим ожиданием /И| = 0 и спектральной плотностью (со) = NJ2, —оо < со < оо. A0.35) Найти спектральную плотность 5т, (со) и корреляционную функ-> цию /?т, (т) напряжения ц (t) на сопротивлении R. Решение. Комплексная частотная характеристика исследуемой цепи определяется соотношением (см. табл. 10.1) #•(/<») = R/(R + /coL), а квадрат ее модуля ) |2 = (coLJ,l A0.36) Подставляя A0.35) и A0.36) в A0.17), находим спектральную плот- плотность напряжения ц (t) Sr, (а>) = Ss (со) | Ж (/со) |« = A _оо<со<оо, По спектральной плотности согласно формуле Винера—Хинчина находим корреляционную функцию _ JVQ _11_е-/т1К/^ 288 Рис. 10.7. Корреляционная функ- функция на выходе пропорционально- интегрирующего фильтра Рис. 10.8. Цепочка RL Аналогично решаются все задачи, связанные с воздействием на линейные системы белого шума. В табл. 10.2 приводятся резуль- результаты решения задач подобного вида для случая воздействия на не- некоторые простейшие линейные системы стационарного гауссовского белого шума с нулевым математическим ожиданием. В таблице даны нормированные корреляционные функции и соответствующие им спектральные плотности процессов на выходе. 10.5. Определить корреляционную функцию R\ (т) случайного напряжения \ (t) на входе линейной цепи RL (рис. 10.8) при усло- условии, что выходное напряжение ц (t) представляет собой стационар- стационарный гауссовский случайный процесс с корреляционной функцией (т) = A0.37) Решение. Случайный процесс | (t) на входе рассматриваемой линейной системы определяется уравнением в соответствии с чем Я6 (т) = М {|0@ |0(< + т)} = М {[yo(t) J + Ло(^ + т)]} = Яу (т) 4 Ял (т). Учитывая, что у (t) = т) (t), находим: i\ dt A0.38) A0.39) После подстановки A0.37) и A0.39) в A0.38) получаем т) = D4 1 + 2а ( ^-j8 A - 2ат2) ] 10.6. На цепочку RC (рис. 10.1), начиная с момента t = 0, воздействует случайное напряжение | (<), представляющее собой стационарный шум с нулевым математическим ожиданием т| = 0 и корреляционной функцией 10 Зак. 1203 289
Таблица 10.2 Корреляционные функции и спектральные плотности на выходе простейших линейных систем Линейная система (T)=-i- f 2Я J S (со) е/С0Т .со Аналитическое выражение | График S(co) = = 1 Аналитическое выражение График 1. Низкочастот- Низкочастотный ЯС-фильтр 2а а2+ша ' 2. Два низкочас- низкочастотных /JC-фильт ра .-a III <? Г (a2 + ш2J 3. Три низкочас- низкочастотных ЯС-фильт- ра Cl+a|t|+a8t2/3)e-alTl 16а6 4. Пропорциона- Пропорционально -интегрирую- -интегрирующий фшльтр 05 5. Гауссов низко- низкочастотный фильтр 6. Идеальный низкочастотный фильтр 7. Идеальный высокочастотный фильтр 8. Высокочастот- Высокочастотный flL-фильтр 9. Колебательный контур sin Aarc Дшт п „, sin'Aarc —— о (t)—— Дш Дшт — at | т | / а е cos<b0t+— X sin ш0 |т| л/Дш при | ш | < Дш, О при | ш | > Дш \7 ^ О при | ш I < Дш, я/Дш при | ш I > Дш 4а (а2 +Ш2,) [а2+(ш-ш„J][а2+(ш -Аы О At» ы И 0 Аы Ы/ Ы
Определить корреляционную функцию #,, (т) напряжений r\ (t) на емкости С. Решение. Процесс r\ (t) на выходе цепочки RC (см. пример 10.2) t T|(Q = ae^.Je«E(x)dxf « = —. о в соответствии с чем его математическое ожидание 1щ @ = щ A - е-«')- Так как по условию задачи п\\ = 0, то тч (t) = 0. Корреляционная функция R4 (t, tx) процесса r\ (t) (см. при- пример 10.2) т, (t, к) = а2 e« Так как в нашем случае R% (т) = Dge-Plx| , то = a2 'Я' о о A0.40) Сделаем в интеграле 11, f Г A0.41) замену у = z + x. При этом A0.41) преобразуется к виду t,-x I = dx dz_ A0.42) Так как в подынтегральном выражении аргумент z берется по мо- модулю, необходимо определить области интегрирования так, чтобы в пределах каждой из них аргумент z имел бы только один знак. Области интегрирования для случая, когда tt = t + т > t (т. е. когда т > 0), и для случая, когда tx = t + т < t, (т. е. когда т <0), показаны на рис. 10.9, а и б. Таким образом, при т > 0 при интегрировании по z в пределах [—х, 0] аргумент z < 0, а при интегрировании в пределах [0, tx — — х] аргумент z >> 0. В соответствии с этим при v >> 0 интеграл A0.42) можно представить в следующем виде: Г0 e<«+f»zdz+ J A0.43) 292 r<O 0 \ —i- 1| К. к S) tf t X к i а) Рис. 10.9. Области интегрирования Подставляя A0.43) в A0.40) и учитывая, что tt — t = т, полу- получаем следующее выражение для корреляционной функции при т> 0: ^„(^т) = ——| Р2—¦ а? У а —[1 — е-<а+Р>']е-Рт|,т>0. A0.44) Аналогично можно найти, что при т < 0 г, {t, т) = -^—^— {-?- (l — e-2a0 е«+ [е Р2 — a2 I. a [1—e- , т<0. A0.45) Объединяя A0.44) и A0.45), получаем следующее выражение для корреляционной функции случайного процесса r\ (t): Я„(t, х) = —-—-{— A — е-2а()е~аIхI +[е-(«+Р)'—е-206']e-°ixi — Р2—а2 I, a —[1—eH«+&>']erPi4J. A0.46) Полагая в A0.46) t-*-oo3 находим корреляционную функцию для стационарного режима: _ . . aD. ... .. . 2—а2 293
Дисперсия От, в стационарном режиме равна a, -f- p 10.7. На линейную систему с импульсной характеристикой h (t) воздействует стационарный гауссовский белый шум ? (t) с корреляционной функцией R$ (т) = (No/2) б (т). Определить взаимную корреляционную функцию R^ (т) про- процесса | (/) на входе системы и выходного процесса r\(t) и дисперсию От, процесса r\ (t) на выходе. Решение. Подставляя в A0.14) значение корреляционной функ- функции R% (т), находим 0 nputl<O,t1>tt. A0.47) Из A0.47) следует, что с точностью до постоянного множителя импульсная характеристика линейной системы совпадает с взаим- взаимной корреляционной функцией между входным стационарным белым шумом, воздействующим на систему, и выходным случайным про- процессом. Этим результатом часто пользуются для эксперименталь- экспериментального определения h (t) неизвестной линейной системы при помощи коррелометров. Значение дисперсии О,, в стационарном режиме можно опреде- определить при помощи формулы A0.12,6). Подставляя в нее заданную функцию R* (т), имеем: A0.48) Полагая в A0.48) т = 0, находим 10.8. Найти спектральную плотность Si(f) напряжения собст- собственного теплового шума на параллельной цепочке RC (рис: 10.10) и построить график зависимости Sj (f)/4kT от величины R для трех частот: / = 100 Гц, 1,5 и 15 кГц при С = 100 пФ. Вычислить дисперсию напряжения шума в полосе частот [fi,ft] и показать, что при Д = 0, f2 -*- °° она равна kTIC. Решение. Известно, что спектральная плотность напряжения' собственного теплового шума любой пассивной линейной электри- электрической цепи определяется формулой Найквиста: Si (t) = AkTR Re {Z}, 294 0 < f < oo, Рис. 10.10. Цепочка RC Iff8 Iff' Рис. 10.11. Спектральная плотность 10 V теплового шума 10" 10'* 10s -fff11 fffl/i / с- \ ЮОпФ Jo % \s=- где kT = 4 • 10~21 Вт/Гц, Re {Z} — действительная часть комплекс- комплексного сопротивления цепи Z. Для параллельной цепочки RC имеем Ъ R R . Ra>RC 1+/со/?С 1 + (СО«СJ Поэтому R BnfRC)* Графики зависимости Sg (f)/ikT от R для трех частот при С = 100 пФ представлены на рис. 10.11. Дисперсию шума в полосе частот [flt f2] находим по формуле 1, О6 = AkTR Г ! df = [arctg Bя^2 RC) - arctg BяД RC)}. JlG Полагая здесь fx = 0, + оо, получим Os = kTIC. 3. ЗАДАЧИ И ОТВЕТЫ 10.1. На вход линейной системы с постоянными параметрами, описываемой дифференциальным уравнением /№ И dtn dt dm h4- 1Ц)+Ьо l{t), воздействует стационарный случайный процесс | (t) с математи- математическим ожиданием, равным mj. 295
Найти математическое ожидание т^ реакции системы ц (t). Ответ: т^ = (bQ/a0) m%. 10.2. На вход идеальной дифференцирующей цепи воздействует стационарный гауссовский случайный процесс Е. @ с нулевым ма- математическим ожиданием /лЕ = 0 и корреляционной функцией *<Ъ \%) — и№ \1 "| а 1Т| >¦ Определить корреляционную функцию процесса ц (t) = d% (t)/dt на выходе. Ответ: Я„ (т) = a2D|e-aiT' A — а[т|). 10.3. Решить задачу 10.2 при условии, что :os ft>0 т •-{- sin (oo | т | V ®0 Ответ: 1) R (t) = (a2 + cog) ?>| e-« ItI fcos и0 т — sin и01 т| 2) R4 (t) = 2a2Dse-a!i;S A — 2aV) = 2a2(l — 2aV) ^s (т). 10.4. На вход радиотехнического устройства, состоящего из линии задержки на время *зад = ^о и дифференцирующей схемы (рис. 10.12), воздействует стационарный случайный процесс Е @ с нулевым математическим ожиданием mj = 0 и корреляционной функцией Я6(т) = />б е~ап1 A+о|т|). Определить взаимную корреляционную функцию R^ (т) про- процессов I (t — t0) и ц (о = i @ = dl @/Л. Ответ [4]: R1x](t:)= — a2D| (т—/0) e~a Iх-' . 10.5. Корреляционная функция процесса Е, (<) имеет вид Найти корреляционную функцию процесса П @ = I @ + d\ @/Л. . Ответ: Яч (т) = [1 + 2а2A ^ ш d eft to fft-ttJ Рис. 10.12. Дифференцирующая схе- Рис. 10.13. Идеальный интегратор ма и линия задержки 296 10.6. Корреляционная функция @ имеет вид случайного процесса j I+— a Найти взаимную корреляционную функцию процессов | @ н ц @ = d2Ut)ldt2. Ответ: Я|п (г) = — D| a2e~a |т| A +a | х| — а2т2), О 10.7. На вход интегрирующего устройства (рис. 10.13) воз- воздействует стационарный случайный процесс g @ с корреляционной функцией Ri(x). Определить дисперсию D4 процесса ц (t) на выходе интегратора и взаимную корреляционную функцию R^ (tlt t2) Для входного н выходного процессов. Ответ [4]: t D4 = 2[{t -х) ЯЕ (t) dx = D4 @, 10.8. Вычислить корреляционную функцию Ri(tlt t2) и диспер- дисперсию D| @ случайного процесса Винера Е, @ = J л @ dt, где л (/) — о стационарный белый шум с нулевым математическим ожиданием тп — 0 и корреляционной функцией Ответ: 10.9. На вход интегрирующего устройства воздействует стацио- стационарный случайный процесс g @ с нулевым математическим ожида- ожиданием mj = 0 и корреляционной функцией Я$ (т). Определить дисперсию ?>,, и корреляционную функцию R4 (т) процесса t+T -^г j t(x)dx t-T на выходе интегратора. 297
Ответ1. D,-f J J j . — T 10.10. Случайный процесс ср (t) задан уравнением где пф @ — стационарный гауссовский белый шум с нулевым мате- математическим ожиданием и корреляционной функцией Определить дисперсию БДф (*, т) приращения Аф (t, т) = _ ф ^ _1_ т) _ ф (/) в стационарном состоянии. Ответ: 10.11. Вычислить дисперсию Dt& (t, x) приращения AX (t, x) = X (* + t) — X @, где X @ — случайный процесс, заданный уравнением Т. Здесь п%. @ — стационарный гауссовский белый шум с^ нулевым математическим ожиданием и корреляционной функцией Ответ: 10.12. Определить дисперсию D,, (*,/г) процесса =^ а, (*)<** при <-*¦ оо. Здесь Я, @ — случайный процесс, заданный уравнением A0.49). Ответ: =~-|а|*|—A—е-«нчI. 298 ш 10.13. Пусть случайные процессы \ (f) и r\ (t) на входе и выходе линейной системы с импульсной характеристикой h (t) связаны со- соотношением t т) @ = I h V — т) ? W dT, "" — оо где функция h (t) абсолютно интегрируема на положительной полу- полуоси. Доказать, что (t, к)=\ h {tx - х) R% (t, r) dx, где /??,, (t, tt) — взаимная корреляционная функция процессов I (t) и т)"@; Rt (tJi) — корреляционная функция процесса ? @- Предполагая, что процесс | @ стационарен, доказать, что функ- функция Rin (t, tx) зависит только от разности аргументов, и выразить взаимную спектральную плотность S^ (<о) процессов ? @ и т) @ через спектральную плотность Sj((o) процесса ? @- Ответ: 56я (©) = Ss (и) J h (т) е'шг dr. о 10.14. Пусть I (t) и Ei@ — случайные процессы и -rj Rllt (x, тх) dxu = J ftxp- 0 — оо Доказать, что Ячч, С *i) = J А (/-т) dx где Rnni (t, tt) — взаимная корреляционная функция процессов т) @ и тI@; Rnt (t, tx) — взаимная корреляционная функция про- процессов I (t) и t^t). 10.15. На конденсатор емкостью С начиная с момента времени t = 0 воздействует флуктуационный ток i (t), представляющий со- собой белый шум с нулевым математическим ожиданием mt = 0 и корреляционной функцией Найти дисперсию Д, @ напряжения т] @ на конденсаторе (рис. 10.14). Ответ: Д,-@.=¦ —¦'¦ •- 10.16. Решить задачу 10.15 для случая, когда корреляционная функция тока i (t) имеет вид Rt(x) = Dje—&!*• . Ответ [44]: Д, @ = 4?г U — 4- A - е-*I • рс1 L Р J 299
о—>¦ Ш) Рис. 10.14. Воздействие случайного тока на емкость 10.17. На вход дифференцирующей цепочки (рис. 10.15) воз- воздействует случайное напряжение \ (t), представляющее собой огра- ограниченный по частоте белый шум, спектральная плотность которого 0, со<О, (о>(ох. Найти дисперию Оц напряжения т] (t) на.выходе цепочки. Ответ: = — (щ RC arctg щ RC 10.18. На вход схемы RC (рис. 10.16) воздействует ограниченное по полосе случайное напряжение ? (t) со спектральной плотностью Ов ((О) = < • { 0 для для всех других ю. Найти спектральную плотность 5„ (со) напряжения т] (t) на вы- выходе. Ответ: Дш ^ ^ Дш 10.19. На вход пропорционально-интегрирующего фильтра (рис. 10.5) поступает стационарное случайное напряжения \ (t) с математическим ожиданием ягЕ и корреляционной функцией #5 (t) = D?e-«w . Определить математическое ожидание 1Щ, спектральную плот- плотность S,, (со) и дисперсию Dn напряжения т] (t) на выходе фильтра. Ответ: о , v п 2а 1 + (шГ!)а . n n T + Tfa Рис. 10.15. Дифференцирующая цепочка ЛС Рис. 10.16. Схема 300 10.20. Напряжение на входе фильтра, изображенного на рис. 10.1, представляет собой случайный стационарный про- процесс. Определить отношение дисперсии Dn выходного напряжения т) (t) к дисперсии Dg входного напряжения ? (t), если спектральная плотность входного процесса равна: 1) Sj (со) = Soe-pca'; 2) 5? (со) = Soe-P|tfli. Здесь So> 0, р > 0 — постоянные детер- детерминированные величины. Ответ: где г —Lx. 1 1 с х а-—!—, Ф(г)=—^— е 2 dA;. RC Уъ1 J — oo „ r аР ар т ?) I р cos д. я sjn д. I =ap[sinap I dx—cosap I dx\ I— -— oo — oo -J 2) 10.21. Напряжение ? (t) на входе #С-фильтра, изображенного на рис. 10.16, представляет собой случайный стационарный про- процесс с нулевым математическим ожиданием mg = 0 и корреляци- корреляционной функцией' Определить корреляционную функцию Rn (с), дисперсию D,, и спектральную плотность S,, (со) выходного напряжения т) (?). Как следует выбрать параметры R и С, чтобы отношение дисперсии выходного процесса т] (^) к дисперсии входного процесса | (^) было меньше заданного числа б? Ответ: 2 2a2 a=- ^. о n.c/\ Л a+P ' Ц Для того, чтобы отношение дисперсий было меньше б, должно выполняться неравенство RC ^ б/рA —• б). 10.22. На вход двух параллельных цепочек RC (рис 10.17) действует случайное напряжение ? (t), представляющее собой стационарный белый шум с нулевым математическим ожиданием и корреляционной функцией A0.20). 301
Рис. 10.17. Две параллельные цепочки RC Рнс. 10.18. Воздействие случайно- го тока на ннтегрально-днфферен- цирующую схему Найти взаимную корреляционную функцию для выходных на- напряжений Г) (?) И [I (?). Ответ: KiwPi. У [ееЧ; 2 (¦_«!+о») О! = 1ARA, а2 = 1/#2С2. 10.23. На схему, изображенную на рис. 10.18, действует флук- туационный ток i (?) в виде шума с нулевым математическим ожи- ожиданием mi = 0 и корреляционной функцией ¦Rt(x) = (NJ2)b{x).~ Найти корреляционную функцию /?ч(т) и спектральную плот- плотность 5Ч (и) выходного напряжения т) (?) в стационарном режиме. ¦ Ответ: где a = 10.24. К схеме, изображенной на рис. 10.19, приложено слу- случайное напряжение | (?) в виде белого шума с нулевым математи- математическим ожиданием mg = 0 и корреляционной функцией A0.20). Определить корреляционную функцию /?ч(т) и спектральную плотность 5„ (ю) выходного напряжения г\ (?) в стационарном со- состоянии. Ответ: 8 _ . , -(а-Я,)е 1X1 где 4т. 302 1„ Рис. 10.19. Воздействие случайного Рнс. 10.20. напряжения на иитегрально-днффе- схема рейдирующую схему Интегрирующая 10.25. На схему, представленную на рис. 10.20, действует флуктуационное напряжение .| (t) в виде белого шума с нулевым математическим ожиданием т% = 0 и корреляционной функци- функцией A0.20). Найти корреляционную функцию R^ (г) и спектральную плот- плотность St, (ю) выходного напряжения т) (t) в стационарном состоянии. Ответ: l а 4 2 а2 где 10.26. Найти дисперсию Dt входного тока i (t) в линейной цепи, изображенной на рис. 10.21, при условии, что напряжение т] (t) на выходе является случайным процессом, спектральная Шютность которого имеет вид No 0 при 0 при и <0, • Ответ: D; = я +©?./?» С). 10.27. На вход цепочки RC (рис. 10.22) воздействует стационар- стационарное случайное напряжение | (t) со спектральной плотностью S6 (e>) = 4a/Da2 + юа). Определить спектральные плотности 5Я (ю) и S№ (ю) выходных напряжений т) (?) и ц (?) и их взаимную спектральную плотность S() Рис. 10.21. Воздействие случайного тока на параллельную цепочку RC
Рис. 10.22. Воздействие случайного напряжения на схему RC Рис. 10.23. Последовательная цепоч- цепочка RL Ш) R 1' -о Ответ [35]: Dа2 +ш2) DР2+ш2) Daa+co2)SDp2 +ш2) 1 10.28. На последовательную цепочку RL (рис. 10.23) действует флуктуационный ток i (t), имеющий равномерную спектральную плотность Sj(<o) = N0/2 в области частот — о^ ^ <о ^ (o^ Найти дисперсию Dt, напряжения т] @ на индуктивности L. Ответ: Dn = 3 ' 2я 10.29. На последовательную цепочку RL (рис. 10.24) дейст- действует флуктуационный ток i (t) с корреляционной функцией t Rt (г) = D,e-«^. Найти дисперсию Dn напряжения т] (t) на индуктивности L. Ответ: Dn = 2а2L2D,. 10.30. Напряжение ? @ на входе фильтра, изображенного на рис. 10.8, представляет собой случайный стационарный про- процесс с математическим ожиданием т\ и корреляционной функцией Фильтр включают в момент времени f = 0. Определить математическое ожидание пгп (t) и дисперсию Dr, выходного напряжения т] (?) и найти их значение при ?-> с». Рис. 10.24. Последовательная цепь Рис. 10.25. Схема RL 304 Ответ: m-n(t) = mt I — Dn(t) = Dt г « 1 / " 1 1 —е *- | "~ ' е aL—R aL—R R r L ' — 2- a = • n @ |i-»oo = 10.31. Напряжение I (t) на входе фильтра (рис. 10.24) пред- представляет собой белый шум, спектральная плотность которого равна '^5 (ю) = N.o> 0 ^ ax; с». Определить корреляционную функцию Rn (г) напряжения т] (t) на выходе. Как следует выбрать параметры фильтра, чтобы дисперсия Dr, выходного напряжения не превышала заданного зна- значения D? Ответ: 4а 4а ^T -|—— sinwilt |) при со0 > а (т. е. при R < 2 при со0 = а (т. е. при а при юо<а(т. е. при /?>2]/"L .). Здесь ш0 = \lVlC, a = R/2L, ©!= |Ло§ — а2 > 0. Для того, чтобы дисперсия Dr, выходного напряжения не превыша- превышала заданного значения D, должно выполняться неравенство RC > N0/2D. 10.32. На вход цепи, изображенной на рис. 10.25, воздействует случайное напряжение | (t), представляющее собой белый шум со спектральной плотностью Sg(<o) = No, 0 ^ и < се. 305
Найти спектральную плотность, корреляционную функцию и среднее квадратическое значение (Гч = У Dn выходного напряже- напряжения Т) (t). Ответ: R.M- -T-" а = 2Т ! + Я,). 10.33. Напряжение ? (?) на входе фильтра, изображенного на рис. 10.26, представляет собой белый шум, спектральная плот- плотность которого Sg((o) = No, 0 ^ <о < оо. Определить корреляционную функцию #ч (т) напряжения r\ (t) на выходе фильтра. Как следует выбрать параметры фильтра, чтобы дисперсия Ьт, напряжения на выходе не превышала заданного зна- значения D? Ответ: No Ре- ^- sin«! | т | при <»0>Р, при (оо = р, sh KF1 При <О0<Р- Здесь = IIVLC, p = 1/2RC, — р2 > 0. Для того, чтобы дисперсия D^ выходного напряжения не превы- превышала заданного значения D, должно выполняться неравенство RC > NJ2D. 10.34. На высокодобротный колебательный контур, составлен- составленный из параллельно соединенных конденсатора емкостью С, резис- резистора сопротивлением R и катушки с индуктивностью L (рис. .10.27), Рис. 10.26. Фильтр RLC Рис. 10.27. Колебательный контур 306 Рис. 10.28. Колебательный кон- контур воздействует случайный ток i (t), представляющий собой белый шум с нулевым математическим ожиданием mt = 0 и спектральной плот- плотностью! S;(<o) = No, 0 ^ ю < оо. Определить1, корреляционные функции Rv(x), /?ч(т) и спектраль- спектральные плотности Sv(<o), St] (<o) тока v (t) в индуктивной ветви и напря- напряжения т] (t) на контуре. Ответ [44]: e-e'* |(совш1т+ isi (т) = No ptf2 е-Р - -i- sin % | т 4Р» ©»+(©»—©»)» Здесь P = 2RC Vlc d = QHL 10.35. Применительно к условиям задачи 10.34 определить взаимную корреляционную функцию ^v (т) для входного i (t) и выходного v (t) токов и взаимную корреляционную функцию Rtn (т) для входного тока и выходного напряжения т] (t). Ответ [44]: т>0, т<0, { 0, О, , т>0, t<0. 10.36. На высокодобротный колебательный контур, составлен- составленный из параллельно соединенных конденсатора емкостью С и ка- катушки с индуктивностью L и сопротивлением R (рис. 10.28), воз- 307
действует случайный ток i (t), представляющий собой белый шум со спектральной плотностью 5г(со) = No, 0 ^ со < оо. Найти корреляционные функции Rv (%), Rn (т) и спектральные плотности Sv (со), 5т, (со) тока v (t) в индуктивной ветви контура и выходного напряжения т] (t). Ответ: Rv (т) = No а<22 е-а Iх' (cos % t + — sin щ I т л (т) = Л^о aQ2 p2 5v(co) = 1 (COS I — — sin 4a* Я* С1 4а2ша+(соа—cogJ 2 4а2со2+(ш2—cog)* Здесь а = R/2L, со0 = 1/1/Тс, Q = co0L//? = p//?, ffll = К ©о — а2>0. 10.37. Стационарный случайный процесс | (^) со спектральной плотностью Si (со) воздейстует на линейный фильтр с комплексной частотной характеристикой Ж (/со) = A — е-/шГ)«. Определить спектральную плотность Sri (со) выходного процес- процесса Т] (t). Ответ: S4 (со) = S6 (a) B sin ——j ". 10.38. На колебательный контур с комплексной частотной ха- характеристикой Ж (/со) = 4 2аш+/(ша—а?) воздействует случайный процесс х (t) = s (t) -\- n (t), где представляет собой полезный сигнал в виде отрезка (импульса) длительностью Т стационарного квазигармонического шума l{t) = A (*) cos [со„* + Ф @1 с нулевым математическим ожиданием mj = 0 и корреляционной функцией Rl (т) = D?e~P i*1 cos соот; ' п (t) — стационарный белый шум с корреляционной функцией Я„(т) = (ВД б (т). 308 Рис." 10.29. Отно- Отношение сигнал/шум иа выходе колеба- колебательного контура при экспоненци- экспоненциальной корреля- корреляционной функции входных квази- гармоиических флуктуации о,г Z а-ссГ Определить корреляционную функцию R^t, т) процесса ц (t) = — v\s(t) + Лп@ на выходе контура и отношение сигнал/шум в конце импульса р (Т) = D^T) /ОЧп, где D,, (t) — дисперсия составляющей r\s(t) выходного случайного процесса ц (t), обусловленная воздействием колебания s (t); D^ — дисперсия выходного шума r\H(t). Ответ [65]: (а т-2а'—a (e ~ax +e~ 'Гcos щх, t = аТ, ц1 = График функции p(T)/q = f (а, ц±) дан на рис. 10.29. 10.39. Решить задачу 10.38 при условии, что Rz (т) =. Dge- 309
Рис. 10.30. Отно- Отношение сигнал/шум на выходе конту- контура при гауссовой корреляционной функции входных квазигармониче- квазигармонических флуктуации Z сг-аГ Ответ [65]: _2ф UV2 YV2 -f Ф L V vVs VV2 q = D6 Г/iVo, а = а Г, (А2 = Y/« Графики функции р (T)lq приведены на рис. 10.30. 10.40. Решить задачу 10.38 при условии, что Ответ [651: ¦ — t ( 8х бх T1 . e2a | x I I бх — t—x a ^ = DiT!N0, a = оГ, Цз = б/а. График функции р (Г)/<7 = f (а, И-з) приведен на рис. 10.31. 10.41. На вход линейного нешумяшего четырехполюсника с комплексной частотной характеристикой ЗС (/со), модуль которой определяется соотношением A при соо— I Cft (/ со) | = < 10 при других со, воздействует собственный шум \ (t) параллельного колебательного контура с резонансной частотой со0 (рис. 10.32). Вычислить дисперсию Dn напряжения т] (t) на выходе четырех- четырехполюсника в зависимости от его полосы пропускания Асо = Acoj + + Асо2- р(Т) 0,8 0,6 Рис. 10.31. Отно- '^ шение сигнал/шум на выходе колеба- колебательного контура д? при прямоуголь- ' ной спектральной плотности вход» ных квазнгарыо- ннческих флуктуа- в цнй 7,5 Z кчсТ 811
ЗСО'ы) q Рис 10.32. Линейный четырехполюс- четырехполюсник J?(t) Ответ: Для случая апериодических колебаний в контуре (со§ — а2< 0, со§ = Ш-С, а = R/2L, добротность контура Q = = a0L/R< 1/2): _arctg^)_^(arctg-|-arctg ^-)], =Y\— 2Q3— |/l-4Qa, —4Qa, С = A + 82) QV^ D = A — 60 6a = Для случая периодических колебаний в контуре (со? — аа > 0, при этом Q> 1/2): D kTRa>0 Q ( 1 X -1 x Г1п L 2QA-S1K-2A-61)V4Q2-1+2Q При Q > 1 последнее выражение приводится к виду —arctg 1-6, , fl = 2-6lf Ь = \ Если полоса пропускания четырехполюсника симметрична от- относительно со0 (т. е. если Ащ = Асоа = Асо/2), то при Q > 1 имеем QSD-f6) 2B + 6) 813 Рис. 10.33. Модуль комплексной частотной ха- характеристики фильтра нижних частот ы Если к тому же б = Асо/соо <g 1, то Dn = Di— arctg Qb. я Здесь D\ = kT/C — дисперсия собственных шумов контура (см. пример 10.8). 10.42. Стационарный случайный процесс g (t) с корреляционной функцией воздействует йа фильтр нижних частот, амплитудно-частотная ха- характеристика которого приведена на рис. 10.33. Найти дисперсию D^ выходного напряжения ц (t). Ответ: Dn = DE ^ arctg ^ . 10.43. Линейная система имеет амплитудно-частотную харак- характеристику, равную постоянной Жо в интервале (со0 — Аю, <о0 + Асо) и нулю вне этого интервала. На вход системы подается белый шум \ (t) со спектральной плотностью 5^(со) = No, 0 ^ со < оо. Найти корреляционную функцию R^ (t) процесса r\ (t) на выходе. Как следует выбрать Асо, чтобы дисперсия D^ выходного процесса не превышала заданного значения D? Ответ: — Ж\ No Асо я sin At0T Дшт cos со0 т, 10.44. Определить эффективную шумовую полосу пропускания интегрирующей цепочки RC (рис. 10.1). Ответ: Afg = 1/2RC. 10.45. Фильтр состоит из двух последовательно соединенных однонаправленных линейных систем, частотные характеристики ко-" торых соответственно равны 1/A + /coTV) и 1/A + /соГа), где Тг и Г, — положительные числа. Найти корреляционную функцию Rn(%) и дисперсию D^ процес- процесса т) (t) на выходе фильтра, если спектральная плотность процес- процесса |(?) на входе фильтра 5|(со) = 50/(а2 + со2). 313
Ответ: -Bi г 11 2a (a + P 10.46. Выразить корреляционную функцию R^ (г) процесса т] (t) на выходе суммирующего устройства с линией задержки (рис. 10.34) через корреляционную функцию R% (т) стационарного случайного процесса ? (t) на входе. Ответ: R^ (г) = 2Rt (г) + Rl (г — Т) + Rt (г + Т). 10.47. На вход линии задержки, имеющей N отводов через вре- временные интервалы Э (рис. 10.35), воздействует стационарный слу- случайный процесс I (t) с нулевым математическим ожиданием mj = 0 и корреляционной функцией Ri(%). Определить корреляционную функцию Rn (r) и спектральную плотность Sn (со) процесса т] (t) на выходе сумматора. Ответ [66]: (т) =-L т) +-L- Г-i) /?s (т N—1 График функции Sn (co)/55 (со) = / (всо) приведен на рис. 10.36. 10.48. На линейное устройство, состоящее из линии задержки на время /Зад = Т и вычитающего устройства (рис. 10.37), воз- ?(t-W-T)$) 1—*¦ -—¦ Т Рис. 10.34. Суммирующее устройство с линией задержки Рис. 10.35. Суммирующее устройство с многоотводной линией задержки / - 0М)в ~ • • • • fff-s) > 314 Рис. 10.36. Спектральная плотность процесса на вы- выходе сумматора 0,8 0,6 0,1 V \ \ Г \ \ 10 \5 \ \ О,1п 0,2тг 0,Зя действует случайный процесс ? (t) с математическим ожиданием mj (t) и ковариационной функцией /Cj (^, t2). Определить математическое ожидание пц (t), ковариационную функцию Кц (ti, t2) выходного процесса Л @ = lit + Л - l(t) и взаимную ковариационную функцию /С5т1 (tlt t2) = М {I (^) X X т] (/2)} процессов на входе и выходе. Ответ: пц @ = т% (t Т) - mg@; , и + Т) - (h, h) = t2 5 (/г + Г, /2 т, t2) + Кг (t,, t2), T)-Ki(tlt t2). Т) 10.49. Решить задачу 10.48 при условии, чт© входной процесс I (t) является стационарным с математическим ожиданием mj и ковариационной функцией Ki (r). Вычислить спектральную плотность S^(co) выходного стацио- стационарного случайного процесса ц (t) = I (t + T) — ? (t) и взаимную спектральную плотность Sgr, (со) стационарно связанных случай- случайных процессов I (t) и т] (t). Рис. 10.37. Вычитающее устройст- устройство с линией задержки • Г 1 315
Ответ [14]: /М9 = 0, /Сч(т)=2/С6(т)-/С6(т+Г)-/С6(т-Г), т) (со), где оо ©)= f 10.50. На вход фильтра, схема которого представлена на рис. 10.38, поступает случайный процесс ? (t) с корреляционной функцией Найти дисперсию D,, процесса т] (?) на выходе фильтра. Ответ: Dn = 2D6A — е~аГг). 10.51. Найти спектральную плотность Sn (со) процесса т] (t) на выходе фильтра (рис. 10.38), если спектральная плотность про- процесса | (t) на его входе где б (х) — дельта-функция; Т — время задержки в линии. Ответ: Sn (со) = 4Ле~а2 <¦>' sin2 (— 10.52. Найти корреляционную функцию R^r) процесса т] (t) на выходе фильтра, схема которого представлена на рис. 10.38, выразив ее через корреляционную функцию R% (т) стационарного случайного процесса g (t) на входе. Ответ: - Л - 4ЯВ (т (т + 2Г). Г) г — 2Г) 10.53. На вход радиотехнического устройства, состоящего из последовательно соединенных дифференцирующих устройств и Рис. 10.38. Схема фильтра 316 4г. Рис. 10.39. Последовательное соеди- нение дифференцирующих устройств и сумматора d dt d dt I сумматора (рис. 10.39), воздействует стационарный случайный процесс \ (t) с нулевым математическим ожиданием /П| = 0 и корре- корреляционной функцией Ri (т). Определить корреляционную функцию /^(т) процесса r\ (t) на выходе сумматора. Ответ [4]: „ (т) = Rt (т) х) т). 10.54. Вычислить одномерную плотность распределения веро- вероятностей Pi(y]) для напряжения y\(t) на конденсаторе емкостью С в стационарном состоянии, когда на последовательную цепочку RC (рис. 10.40, а) воздействует случайный телеграфный сигнал ? (t) (рис. 10.40, б). Сигнал ? (/) с одинаковыми вероятностями, равны- равными 1/2, принимает лишь два значения: +1 и —1. Моменты перемен знака (нулей) распределены по закону Пуассона, т. е. вероятность получения п нулей в интервале (if, t + т) равна где К — среднее число нулей в единицу времени. Ответ [68]: ¦A-1 Pi(Л)= 0 при других т). Здесь Т = RC; Г (х) — гамма-функция. A0.50) =^ Рис. 10.40. Интегрирующая цепочка RC (а) и случайный телеграфный сиг- сигнал (б) 317
Таблица 10.3 Плотность распределения вероятностей pt (г\) при различных значениях XT Значение параметра XT » 1 ХГ-, и-f- w=i - Аналитическое выражение 1 / 1 \ г—пУ2ХТ+1 3 4 "l(t1)~T 1~Т|1> И|<1 1 Pi(i) = ~. Hi < 1 График / / / \ \ -10 1 у -) ^ 1.1} 10.55. Получить из A0.50) асимптотические выражения и по- построить графики плотностей распределения вероятностей PiCn) для следующих частных случаев: 1) %Т > 1, 2) ЯТ = 2, 3) ЯТ = = 3/2, 4) Л.7 = 1, 5) ЯГ < 1. Ответ приведен в табл. 10.3 [68]. -I, * 11. УЗКОПОЛОСНЫЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Стационарный случайный процесс | (t) с нулевым математическим ожи- ожиданием называется узкополосным, если ширина полосы Л/ той овласти час- частот, где спектральная плотность Sg (/) практически отлична от нуля, мала по сравнению с некоторой центральной частотой /0 этой области (рис. 11.1), т. е. (/) ф 0 при /„ - Д//2 </</,+ Д//2, А/ « /„, A1.1) где S^(f) — односторонняя спектральная плотность; Л/ — ширина полосы, которая может быть определена по-разному. Если односторонняя спектральная плотность 5. (/) симметрична относи- относительно некоторой частоты /„, то естественно за /„ принять это значение часто- частоты. В других случаях /„ можно выбрать более или менее произвольно. Часто в качестве /„берут «математическое ожидание» нормированной спект- спектральной плотности: A1.2) Корреляционная функция узкополосного случайного процесса всегда может быть представлена в виде [1] где t)cosw0 T+rs(x)sin м„т] = ст|г(т) cos[w0t+y(t)], (П.З) A1.4) -fo " (Н.5) ст| гс (т) ) = -r,(T)/rc(T), cos 2nvxdv, ст| rs (т) = J Sg (f0+v) sin 2jivrdv, —ft причем »-c@)= 1, rg@)= I. v @) = I; ст| — дисперсия узкополосного процесса | (t). A1.6) |5?W ^ Af Рис. 11.1. Спектральная плотность узкополос- Z иого процесса 319
В том частном случае, когда спектральная плотность Sj(/) симметрична относительно центральной частоты /0, корреляционная функция узкопо- узкополосного процесса имеет вид (т)=ст| г (т) cos со„ ~tcosco0t cos2nvtdv, так как = 0, у (т) = 0. A1.7) A1.8) Поскольку в правые части формул A1.5) и A1.7) входит спектральная плотность процесса 1(<). смещенная в области нижних частот (иначе — низ- низкочастотный спектр), то функции гс (т), rs(x), как и г (т), у (т), являются мед- медленно изменяющимися по сравнению с cos оз0т. Реализации узкополосного процесса | (t) имеют вид модулированного гармонического колебания. Поэтому часто используют представление уз- узкополосного процесса в следующем виде: 1 (t) = A (t) cos [со„< + <р (<)], A (t) > 0, — я < <р (t) < я, A1.9) где A (t) и ф (t) — медленно изменяющиеся по сравнению с cos оз„т функции времени, называемые соответственно огибающей и фазой узкополосного про- процесса 1 (t). Можно также ввести понятие мгновенной частоты, определив ее равен- равенством оз@ = «о + Ф @. (П.10) где точкой сверху обозначена производная по времени. Представление узкополосного процесса A1.9) можно записать иначе: @ = Ac(t) cos где Ac(t) = A (t) cos <p (/), Отсюда следует, что - As (t) sin aot, A1.11) As (t) = A (t) sin<p (t). A1.12) A(t) = VAHt)+Al (*), 9@ = arctg[i4,@/i4c@]. (П-13) Формулы A1.9) и A1.11) позволяют интерпретировать огибающую A (t) как длину вектора, проекции которого на оси прямоугольной системы координат равны As(t) и Ae(t). Фазовый угол между осью абсцисс и направ- направлением вектора равен ф (t) (рис. 11.2), причем возможные значения ф (t) ограничены интервалом (—я, я). Длина вектора A (t) и его фазовый угол ф (/) изменяются во времени случайным образом, так что конец вектора со- совершает случайные блуждания на плоскости. При такой интерпретации про- У Рис. 11.2. Геометрическое представление уз- узкополосного процесса 320 екции As(t) и Ac(t) естественно назнать квадратурными компонентами про- процесса | (f). Исходя из различных математических определений огибающей A (t) и фазы ф (/), можно показать, что если исходный процесс i (t) гауссовский, . то квадратурные компоненты Ac(t) и As(t) являются совместно нормальными. Если в дополнение к этому процесс ? (t) стационарен, имеет нулевое мате- математическое ожидание и корреляционную функцию A1.3), то процессы Ac(f) и As(f) являются стационарными и стационарно связанными. Их ма- математические ожидания равны нулю: M{Ac(t)} = M{As(t)) = 0, A1.14) взаимные корреляционные функции определяются а корреляционные формулами Re (т) =М {Ас @ Ас Res } = Я8 (т) =М {As (t) As | т) =М {Ac (t) As (t +т)} = -Rsc (т) = = -M{As(t)Ac(t+x)}=olrs(x). (т), Отметим, что согласно A1.6) значения квадратурных компонент Ar.(t) и Л8(/), взятые в один и тот же момент времени, всегда не коррелированы и, следовательно, для гауссовского стационарного процесса | (i) независимы. Дисперсии компонент, как следует из первой формулы A1.15), одинаковы и равны дисперсии процесса | (/) " о*=М{А*Щ = о*=М {А*Щ=о1 A1.16) Если спектральная плотность Sg(/) гауссовского стационарного процесса !(/) симметрична относительно частоты/,,, то совместно нормальные процессы Ac(tt) и As(t2) согласно A1.8) независимы не-только в совпадающие (при h ~ U)> но и в разные (при tx Ф t2) моменты времени, так как Res (т) = RscW = 0. A1.17) В дальнейшем принято, что исходный узкополосиый случайный процесс 1 (/) является гауссовским стационарным с нулевым математическим ожида- ожиданием. При этих условиях формулы A1.14), A1.17) позволяют сравнительно просто находить различные совместные плотности вероятности огибающей Л (i), фазы ф (t) и их производных. Для этого нужно предварительно записать соответствующую совместную нормальную плотность вероятности стацио- стационарно связанных процессов Ac(t), As(t) и их производных, а затем в ней по известным правилам перейти к огибающей, фазе и их производным согласно равенствам, следующим из выражений A1.13) (см. A1.26) и пример 11.1). Если имеется'сумма узкополосного гауссовского стационарного про- процесса (шума) i (t) = A (t) cos [a>ot + ф (/)] с нулевым математическим'ожи- данием и детерминированного гармонического сигнала „s (/) = Ат cos aot, то можно определить'огибающую, фазу и случайную частоту~такой суммы при помощи'соотношений' цA) = s (t) + l(t) = V (t) cos [aot + ф (<)], V (i) 0, —я < г|з (t) < я, A1.18) где т. е. V (t) cos ф @= Ат+ Ac it), V (t) sin ф @ = As (t), A1.19) tgУ (t)=As(f)/[Am+Ac(t)h A1.20) 11 Зак. 1203 321
При этом остается в силе геометрическая интерпретация, аналогичная при- приведенной (см. рис. 11.2). Выражения A1.20) принимают особенно простоя вид при больших зна- значениях отношения сигнал/шум а = Ami a > 1 ф| Мр (t) 2=: arctg ¦ .(t)/Am, a»l. ,w A1.21) По аналогии с A1.20) можно определить огибающую и фазу для суммы узкополосного гауссовского стационарного шума и нескольких детермини- детерминированных гармонических сигналов. Различные вероятностные характеристики огибающей V (t), случайной фазы ijj (t) и их производных можно получить тем же путем: сначала нужно записать соответствующую совместную нормальную плотность вероятности для компонент Ас @> As @ и их производных, а затем перейти в выражении для нее к огибающей, фазе и их производным в соответствии с равенства- равенствами A1.19). Найдем совместную плотность вероятности Pt(V, V, ф, ф) огибающей V(t), фазьи|з(<) и их первых производных V (t), ф (<) в один и тот же момент времени для суммы A1.18) гармонического сигнала и узкополосного нор- нормального стационарного процесса i (t) с корреляционной функцией (T)=CT|r(T)cosw0T, г @) = 1 • A1.22) Согласно A1.7) спектральная плотность рассматриваемого узкополос- узкополосного процесса ?(<) симметрична относительно частоты ^0 = <в„/2я. Поэтому вспомогательные нормальные стационарные процессы Ac(t) и As(f) независи- независимы, причем их корреляционные функции равны: Re (т) = К8(т) = а\г(х). A1.23) Известно, что производная (скорость) гауссовского стационарного про- процесса есть также гауссовский стационарный процесс, причем значение про- производной не зависит от значения самого процесса в тот же момент времени. Поэтому случайные величины Ас (t), As (t), Ac(t), As(t) взаимно независимы, причем каждая из них распределена нормально. Дисперсии этих случайных величин равны: <0. A1.24) На основании известного выражения нормальной плотности вероятности записываем совместную плотность вероятности р(Ас, As Ac, As) = 1.25) Перейдем здесь от переменных Ас, As, Ac, As к новым переменным V, V, \|з, \|з при помощи соотношений, следующих из A1.19), Ас = VcosiJ; — Ат, As— Vsinij;, Ас ¦= V cos if—\jjKsiniJ), AS = V sin tjj+\f> V cos \jj. 322 Нетрудно убедиться, что модуль якобиана преобразования переменных д (Ас, As, Ac, As) d(V, }?,•*, — V1. Поэтому получим PtiV, V, i>, 4) = Xexpj —- V C0S Воспользовавшись свойством согласованности плотностей вероятностей путем интегрирования по «лишней» переменной, можно получить различные другие плотности вероятности. В частности, проинтегрировав A1.26) по V и ф в пределах —оо до оо, получим совместную плотность вероятности для огибающей и фазы в один и тот же момент времени: оо оо PAV, гЮ= J J — ОО ОО V I 1 expj — ¦)]¦ A1.27) Отсюда находим плотности вероятности для огибающей и фазы: A1.28) e-fl2'2x X [l+V2nacost|jO(acosiC)ea2cos2i''/2], — п < ip < п. A1.29) Здесь a = Лщ/оч — отношение сигнал/шум, 10(х) — функция Бесселя нуле- нулевого порядка от мнимого аргумента, Ф (х) — интеграл вероятности. Используя формулу (И.28), можно показать, что математическое ожида- ожидание и дисперсия огибающей V (t) определяются выражениями a|]/ Xlfl(~T: 1: -Т) = A1.30) Щ, A1.31) где ifi(a; P; х) — вырожденная гипергеометрическая функция; /„(*)—функ- /„(*)—функция Бесселя n-го порядка от мнимого аргумента. 11* 323
Положив в формулах A1.28) и A1.29)] Ат = 0, получим плотности вероятности огибающей и фазы узкополосного нормального стационарного процесса ?(/) с симметричной спектральной плотностью: A1.32) A1.33) = (A/al) exp (—Л2/2а|), А > 0, P9((p) = 1/2я, —я < ф < я. Корреляционная функция огибающей A (f) узкополосного процесса ) и квадрата огибающей A2(t) соответственно равны A1.34) ОД = B-я/2) ) = 0,915гя (т) +0,057/- -.я.(т)=4а|г*(т). A1.35) Аналогичные формулы для огибающей V (t) суммы детерминированного гармонического сигнала и узкополосного шума имеют вид A1.36) A1.37) Rv,(x)=4o\[r* (T)-t-a2 r(x)}. Укажем, что в дальнейшем, при формулировке отдельных задач, пред- предполагается, что огибающие A (t) и V (t) с некоторым коэффициентом пропор- пропорциональности воспроизводятся на выходе линейного амплитудного детектора огибающей, квадраты огибающих A2 (t) и V2 (t) — на выходе квадратичного амплитудного детектора огибающей, случайные фазы ф (t) и г|з (/).— на выхог де фазового детектора и случайные частоты ф (t) и гр (i) — на выходе частот- частотного детектора. 2. ПРИМЕРЫ 11.1. Найти двумерную плотность вероятности огибающей Л (t) стационарного гауссовского процесса | (t) с нулевым математи- математическим ожиданием и корреляционной функцией A1.3). Решение. Значения квадратурных составляющих Лс = Ae(t), As~As(t), Лст = Лс(* + т), Asx = As(i+x) в два момента времени ( и t + т имеют совместную нормальную плотность вероятности, причем квадратурные составляющие есть стационарные и стацио- стационарно связанные процессы. Дисперсии компонент соглано A1.16) одинаковы и равны а|, а матрица нормированных корреляционных функций в соответствии с A1.6) и A1.15) имеет вид 1 0 г.(т) О 1 -г.(т) гс(т) -r8(t) 1 324 О 1 Записываем Совместную нормальную плотность вероятности случайных величин А'с, AS,.ACX, Asx: Р \Aet As, AcX, AsX) = • exp — x X T^s ; (п.38) где г2 = г3(т) определено формулой A1.4): г2(т) = г|(т) + г|(т). Перейдя по известным правилам в этом выражении для плот- плотности вероятности к новым случайным величинам согласно равен- равенствам A1.12), т. е. положив А с = A cos = Л sin = Ах cos фт, получим Asx = АА, X X exp — 1 2о?A— г2) Bяа|JA— г [Л2 +А2—2ААХ (rB cos (фх—( ¦ехр — - ехр фт-ф-у)-[ 2а\(\~г2) A1.39) где tg у (т) = rs(x)/rc(x). На основании свойства согласованности плотностей вероятностей эта формула позволяет получать различные одномерные и двумерные плотности вероятностей огибающей и фазы гаус*совского стацио- стационарного процесса. В частности, путем интегрирования по фх и ф из A1.39) находим двумерную плотность вероятности для огибающей я я рг(А,Ах)= j j pt(A, Лх,ф, фт)Жрт^ф. —я —я При выполнении интегрирования следует воспользоваться опреде- определением функции Бесселя нулевого порядка от мнимого аргумента я— Г A1.40) —я— 325
В результате получим интересующую нас плотность вероятности A1.41) На основании этой формулы можно придти к выражению A1.34) для корреляционной функции огибающей гауссовского стационар- стационарного процесса. 11.2 Вычислить плотность вероятности огибающей суммы двух детерминированных гармонических сигналов s^t) = A^cos aot, s2(t) = A2cos((o0t + ф2) и гауссовского стационарного узкополос- узкополосного процесса i (t), представленного в виде A1.11). Решение. Введем огибающую V (t) и случайную фазу г|э (t) интересующей нас суммы, воспользовавшись следующей записью суммы заданных детерминированных сигналов и случайного про- процесса: Л @ = si@ + s2@ + ? @ = ^iCos wo< + /42cos cp2cos ©„* — — /42sin cp2sin (oo< + /4c@cos aot — As(t) sin coo* = — [At + /42cos ф2 + Ac(t)] cos ю0* — — [AJ^t) + 42sin ф2] sin (aot = V (t) cos [a>ot + if (*)], A1.42) где V (t) = Ae(t) + Ax + Л2 cos ф21 A1.43) т.е. V{t) = {lAAt) + A1 + . Из равенств A1.43) следует, что Ac(t) = V@cOSi 4.@= V(9sirr ф2] + A2cos ф2]. Лх —Л2СО8ф2, | — Л2з!п ф2. A1.44) Записав совместную нормальную плотность вероятности неза- независимых квадратурных составляющих Ac(t) и At(t) и перейдя в ней к новым случайным величинам V (t) и г|> (<) согласно равенствам A1.44), получим совместную плотность вероятности для огибающей и фазы: A1.45) 326 Отсюда находим плотность вероятности для огибающей V (t) При интегрировании следует воспользоваться выражением A1.40), предварительно применив очевидное соотношение Л2cos (г|5 + ф2) + Аг cos г|э = УА\ + Л! + г После выполнения интегрирования получим ф2 cos(if + X /о С-^- КЛ?+Л|+2Л1Л2со8ф2>) . A1.46) Из этой формулы как частные случаи следуют ранее приведен- приведенные результаты. Так, полагая в A1.46) Ла = 0, приходим к формуле A1.27), а при Аг = Л2 = 0 — к формуле A1.32). Отметим, что если бы в рассматриваемом примере детерминиро- детерминированный гармонический сигнал s2(t) имел вид s2(t) = Л2соз (со2^ 4 + ф2) = Л2со8 [соо* + (ю2 — «в0) t + ф2], т. е. его частота со2 отлична от центральной частоты соо спектральной плотности слу- случайного процесса ? (t), то все предыдущие выражения остались бы в силе, нужно лишь в них вместо ф2 подставить (со2 — соо) t -\- ф2, При этом огибающая сумма V (t) была бы нестационарным процес- процессом. Пользуясь записью вида A1.42), понятия огибающей и случайной, фазы можно распространить на сумму нескольких детерминирован- детерминированных гармонических сигналов и гауссовского стационарного про- процесса. 11.3. Пусть на вход радиоприемника, упрощенная функцио- функциональная схема которого приведена на рис. 11.3, воздействует сум- сумма детерминированного гармонического сигнала s(t) = Amcos2nf0t и гауссовского стационарного белого шума п (t) со спектральной s(t)+n(t) УПЧ \Xt(/fJ Линейнь/й ffeme/fmop огибающей V(t) унч Рис. 11.3. Упрощенная функциональная схема радиоприемника 327
плотностью Sn(f) — No. Квадраты модулей частотных характерис- характеристик усилителя промежуточной частоты (УПЧ) и усилителя низкой частоты* (УНЧ) имеют вид гауссовых кривых /0. где АД и А/3 — эффективные полосы усилителей. Вычислить математическое ожидание и корреляционную функ- функцию напряжения ?@ на выходе УНЧ^при больших и малых отно- отношениях сигнал/шум. *м*-й* и« Решение. Очевидно, что сигнал на выходе УПЧ равен COS 2nf0t, а спектральная плотность шума на выходе УПЧ определяется из- известным соотношением = No | Хх (//) |2 = Ж\ No exp [ - я Такой спектральной плотности соответствует корреляционная функция во i(*) = f Sx(/) о cos = <r? exp [—я cos 2я/0т, A1.47) Гауссовский стационарный шум на выходе УПЧ при условии fo ^> Д/i является узкополосным, причем его спектральная плот- плотность симметрична относительно центральной частоты /0. Поэтому сумма гармонического сигнала и узкополосного шума на выходе УПЧ может быть записана в виде* A1.18). г Введем отношение сигнал/шум на входе линейного детектора огибающей а = X1Amhl = AmfVNoMi- Воспользовавшись резуль- результатами решения задачи 11.23, а именно, соотношениями A1.56) и A1.57), найдем математическое ожидание напряжения на выходе детектора а>3; A1.48) 328 Для интересующих нас случаев больших и малых отношений сигнал/шум корреляционная функция напряжения на выходе ли- линейного детектора огибающей дается формулой A1.36), которая при- применительно к рассматриваемому случаю принимает вид а I ехр [ -я (А/х тJ] jl + JL. exp [ - я (АД тJ]|, а > 3 , -| а? |ехр[-2я (А/1тJ]+( ^V exp [-я(А/1т)»]]},а<1. A1.49) Воспользовавшись известным интегралом [17] A1.50) найдем спектральные плотности, соответствующие корреляционным функциям A1.49), Sv (/) = 4 Г Rv (т) cos 2nfxdx = о 2a? L exp f -я (-L-)M]11 + ^U-exp f -iL(_I_yi\ fl>3f Так как коэффициент усиления УНЧ при / = 0 равен СКг, то среднее значение напряжения на выходе УНЧ, очевидно, равно а>3, A1.51) Спектральная плотность напряжения ?,(t) на выходе УНЧ оп- определяется соотношением Sz(f)=Sv(f)\M2(jf)\*. A1.52) Согласно известной формуле ло спектральной плотности находим корреляционную функцию т) = f Ss (t) cos & A1.53) 329
Выполнив вычисления при помощи (И .50), получим -)+ l_|_4v2 4v2 [ 4/2 2/2 L v Г 2 I 2* V l+2v2 exp f-я A1.54) l+4v2 где v ¦= А/2/А/х. Можно рассмотреть частные случаи формулы A1.54). Например, можно убедиться, что при v ^> 1 справедливо соотношение Rl(x)*iXlRV(T), v» 1. A1.55) Этому результату можно дать следующее объяснение. Если по- полоса пропускания усилителя низкой частоты значительно больше полосы пропускания усилителя промежуточной частоты (т. е. v > 1), то низкочастотный спектр напряжения на выходе линей- линейного детектора огибающей воспроизводится усилителем низкой частоты практически без искажений; все спектральные составляю- составляющие усиливаются в СК\ раз. 3. ЗАДАЧИ И ОТВЕТЫ 11.1. Случайный стационарный процесс \ (t) с корреляционной функцией /?|(т) = сг|е—ос| х' cos <о0т записан в виде A1.11): I (t) = Ac(t) cos u>'ot — As(t) sin ®'ot. Определить корреляционные функции Rc(x) и Rs(x), а также взаим- взаимную корреляционную функцию Rcs(x) для двух случаев: 1) а'оф <о0 и 2) юо = соо [44]. Ответ: 1) ЯсСО.= Я.0О = <*?е~а|Т| cos Дсот, Rest*) = сг|е—™ ix' sin Дот, А«в == ю0 — ©о; 2) Rc(x) = R,(x) = afe-«i4 Rcs(x) = 0. 11.2. Случайный стационарный процесс l(t) с корреляционной функцией записан в виде Ac(t) cos <йо< — S30 — sinc>}0|т| sin Рис. 11.4. Функциональная схема синхрон- синхронного детектора X ФНЧ z(t) Найти корреляционные функции Rc(x) и Rs(x), а также взаимную корреляционную функцию Rcs(x). Ответ: О) о 0, х= 0, 1-1, х<0. 11.3. При тех же условиях, что и в задаче 11.2, вычислить спект- спектральные плотности Sc(co) и Sg(co), а также взаимную спектральную плотность Sc8(co). 2а|а ^_ glg 2/й, Ответ: Se(a>) = /11.4. Случайный стационарный процесс плотностью fS0 приi 0 wo а2+со2 (t) со спектральной ю) = при со < %, со > ю2 записан в виде ? @ = Лс(<) cos (d'ot — Assin (d'ot. Найти корреляционные функции #с(т) и Rs(x)f а также взаимную корреляционную функцию Rcs(x) для двух случаев: 1) соо = <о0 = = (о»! + соа)/2; 2) соо = щ. Ответ: 1) /?с(т) = Я,(т) = a| sin рт/рт, ^cs(t) = 0, a| = S0(oJ — Oi), p = (со2 — щI2\ 2) #с@ = Я5(т) = а| sin (оJ — с»!) т/(са2— щ) т, ЯсА) = (S</2) [cos (co2 — щ) % — 1]. 11.5. На рис. 11.4 приведена схема синхронного детектора, представляющего собой последовательное соединение перемножи- перемножителя и идеального низкочастотного фильтра, пропускающего прак- практически без искажений низкочастотную часть спектра и не пропус- пропускающего высокочастотную часть. На один вход перемножителя по- подается гармонический сигнал s (t) = ^xsin aot, а на другой — уз- узкополосный стационарный шум | (t) с корреляционной функцией 331
Определить корреляционную функцию R^t) колебания r\ (t) на выходе фильтра в стационарном состоянии. Ответ: Я„(т) = A/4) Л?а|е-а|ч. 11.6. Найти отношение сигнал/шум на выходе фильтра син- синхронного детектора (рис. 11.4), когда на один вход перемножителя воздействует сумма сигнала и шума s (t) + ? (t), а на другой — сигнал s (t). Сигнал s (t) и шум ? (t) те же, что и в задаче 11.5. Ответ: a^AJoz. 11.7. На один вход синхронного детектора (рис. 11.4) подается сумма AM колебания ЛоA + mcos Qt) cos aot и узкополосного стационарного шума ? (t) с дисперсией а|, а на другой — опорное колебание ^xcos coo^. Определить отношение сигнал/шум на выходе детектора (полезным сигналом" Считать колебание с частотой мо« дуляции О). Ответ: а = тЛ 0/сг|. 11.8. На синхронный детектор (рис. 11.4) воздействует сумма сигнала и шума s (t) + g (t), а также опорное гармоническое ко- колебание Ат cos (dot. Сигналом s (t) является модулированное по случайному закону гармоническое колебание s (t) = Z(t) cos a>ot, где ?@ — независимый от g (t) стационарный случайный процесс со спектральной плотностью при при других/. Стационарный шум ? (t) имеет нулевое математическое ожидание и спектральную плотность No np\ifo—Fl2^f^fo+F/2, О при других f. Амплитудно-частотная характеристика фильтра низких частот по- постоянна и отлична от нуля лишь при частотах 0 <! f ^ F. Найти отношение дисперсии сигнала af к дисперсии а2 шума на выходе фильтра. Ответ: af/a2 = (SJ2NO). 11.9. На два разных входа перемножителя подаются два неза- независимых узкополосных стационарных процесса ?х(?) и %2(t). Пока- Показать, что мощность (дисперсия) выходного процесса ? (t) распреде- распределена поровну между низкочастотной и высокочастотной областями спектра. Указание. Для решения задачи можно воспользоваться представлением корреляционной фукции узкополосного стационар- стационарного ^процесса A1.3) и учесть.что у @) = 0. 11.10. На один вход синхронного детектора (рис. 11.4) подает- подается узкополосный гауссовский стационарный шум ? (?) с корреля- корреляционной функцией Ri (т) = af r (т) cos со0т, а на другой — опорное напряжение ^xcos (o0t. Получить выражения для одномерной и 332 двумерной плотностей вероятностей колебания r\ (t) на выходе детектора в стационарном состоянии. Ответ: Выходной процесс r\(t) гауссовский с дисперсией а? = = (Л!СТ|/2J и нормированной корреляционной "функцией г(т). 11.11. Вычислить математическое ожидание тл и дисперсию а а огибающей A(t) гауссовского стационарного процесса ? (t), имеющего дисперсию af. Ответ: ша = ozVn/2, аД = B — л/2) ag. 11.12. Получить плотность вероятности р (г\) для квадрата огибающей A (t) гауссовского стационарного процесса ? (t) : r\ (t) — A* о. Ответ: р (г\) = 11.13. Вычислить математическое ожидание тл> и дисперсию квардата огибающей гауссовского стационарного процесса \ (t). Ответ: тл> = 2ог|, oi« = 4<т|. 11.14. Гауссовский узкополосный стационарный процесс g (<) со средним квадратическим значением of| = 1 В подается на линей- линейный детектор огибающей с коэффициентом передачи ЗС = 1. Найти вероятность того, что напряжение на выходе детектора превысит 2 В. Ответ: Р = ехр (—2) = 0,135. . 11.15. Корреляционная функция гауссовского узкополосного стационарного процесса l(t) равна #|(т) = a|e-a'ti cos юот. Вычис- Вычислить корреляционную функцию Ra(^) огибающей A(t) этого процесса. Ответ : RA '(т) = B— —\af @,915 e~2a W + 11.16. Решить задачу 11.15 для случая, когда /?|(т) = = afe-0^'/2 cos coot. Ответ: RA(r) = h — -|"W @,915е-»1'1 + 0,057e~2a2^ +...)• 11.17. Корреляционная функция гауссовского стационарного процесса ? (t) равна #6(т) = (xfe-^Vacos со„т. Вычислить корреляционную функцию /?л>(т) квадрата огибающей A2(t) этого процесса. Ответ: /?л«(т) = 4a|e-a!*!. 11.18. Получить двумерную плотность вероятности для процесса т) (t) = A2(t), представляющего собой квадрат огибающей гауссов- гауссовского узкополосного стационарного процсса | (t) с корреляционной функцией Ri(t) = af r (т) cos соот. 333
11.19. Гауссовский стационарный узкополосный процесс I (t) имеет корреляционную функцию Я5(т) = а\г (т) cos соот. Получить одномерную плотность вероятности для производной от случайной фазы ф (t). Ответ: 1 ф 1 —" — - f Q _* т-0 11.20. При тех же условиях, что и в задаче 11.19, получить совместную плотность вероятности для случайной фазы <р(*) и ее производной ф(<) в один и тот же момент времени. Ответ: />, (<р, ф) = 1 (\ — 11.21. На приемное устройство, схема которого изображена на рис. 11.5, воздействует стационарный белый шум n(t) со спект- спектральной плотностью Sn(co) = NJ2. Частотная характеристика усилителя промежуточной частоты (УПЧ) задана выражением 2асо -, а С «о, 2аоз+/(оз2— а импульсная характеристика h(t) интегрирующего фильтра RC равна. h(t) = ye~vt. Определить: 1) плотность вероятности р(х\) процесса r\ (t) на выходе квадратичного детектора огибающей; 2) математическое ожидание т„, корреляционную функцию R^x) и дисперсию а?; 3) математическое ожидание /п?, корреляционную функцию Rz(x) и дисперсию а| процессса ?,(t) на выходе фильтра RC в стационарном состоянии. Квадратичный детектор ffu Интегрирующий фильтр RC Рис. 11.5, Упрощенная функциональная схема радиоприемника 334 I г V V Ответ: 1) р от) = ч 0, о| = 2) mn = 2o|, /?ч(т) = 4о|- = а, V2— 4а2 2 V 2 ^ = 4а| Щ, соо > а; е-2а1т1 _2ае-т|т'), п 11.22. Пусть %(t) = A (t) cos [coo< + ф (t)] — гауссовский ста- стационарный узкополосный процесс. Рассмотрим случайный процесс Ti @ = I @ cos wst = A/2) A (t) cos[(co0 — cos) t + + Ф (/)] + A /2) A( t) cos [(a, + co8) * + qtf)!, где частота «»s мала по сравнению с частотой соо, но значительно превышает ширину спектра процесса ? (<). Спектр процесса ц (t) расположен в двух практически непере- неперекрывающихся, полосах, причем нижней боковой полосе соответ- соответствует процесс = A/2) А @ cos [(ево — cos) t + ф @1, а верхней боковой полосе — процесс П,@ = A/2) Л @ cos [(©о + <us)t + ф Показать, что процессы ^(t) и тJ(<) являются стационарными, хотя их сумма есть нестационарный процесс. Убедиться, что про- процессы %(<) и r\2(t) не являются независимыми. Указание. При доказательствах целесообразно восполь- воспользоваться соотношениями A1.15). 11.23. Установить разный характер изменения математического ожидания ту и дисперсии оу огибающей V(t) в зависимости от от- отношения сигнал/шум а = Ат/а^ для малых и больших значений а. Ответ: /+ та2)-а<1; A1.56) 2а2 4а2/ = аЕ, а>3. A1.57) Указание. Нужно в формуле A1.30) воспользоваться сле- следующими асимптотическими представлениями функций Бесселя: A1.59) .„--^[.+^+.-].«>.. 335
11.24. Найти математическое ожидание и дисперсию квадрата огибающей V2(t). Ответ: ту = 2сг|A + а2/2), ah = 4а|A + а2). 11.25. Найти одномерную плотность вероятности для процесса т)(/) = V2(i), представляющего собой квадрат огибающей суммы детерминированного гармонического сигнала и гауссовского ста- стационарного шума l(t). Ответ: р (г,) = exp \ ч ) л ч .) Указание. Нужно в формуле A1.28) перейти от V к г\. 11.26. Вычислить одномерные начальные моменты тк = = M{Vk (t)}, k = 1, 2, 3, ..., огибающей V(t) суммы детерминиро- детерминированного гармонического сигнала ^racos wot и гауссовского стацио- стационарного процесса ? (t) с дисперсией erf. Ответ: mk = Bo где Г(л;) — гамма-функция; ^(а; Р; х) — вырожденная гипер- гипергеометрическая функция. Указание. При выполнении интегрирования с плотностью вероятности A1.28) следует воспользоваться известным интегра- интегралом [17] Г (v+ 1) X X1F1(-^j^ + l; v 11.27. Вычислить совместную плотность вероятности р2(^, V') для огибающей V (t) и ее производной V(t) в один и тот же момент времени t. Считается, что огибающая V (t) определена форму- формулой A1.18). Ответ: p2(V,V) = PV(V) p {V), где pJV) дается формулой A1.28); 1 exp Г е—I [ 2a|(-r0") J — нормальная плотность вероятности. Указание. Нужно проинтегрировать плотность вероятно- вероятности A1.26) сначала поя|з в пределах от —оо до оо, а затем поя|э в пре- пределах от — я до я. 11.28. Найти плотность вероятности процесса т^(^) = cos if@» представляющего собой косинус фазы г|э(<) суммы детерминирован- 886 ного гармонического сигнала /4mcos wot и гауссовского стационарно- стационарного шума I (t) = A (t) cos [wot + ф (t)] с дисперсией сг|. Ответ: ацФ(ац) где Ф (х) — интеграл вероятности. 11.29. Решить задачу 11.28, положив r\ (t) — sini|) (t). Ответ: х 11.30. Показать, что при больших отношениях сигнал/шум (а = Am/ai > 1) случайную фазу я|з (t) и ее производную можно приближенно считать гауссовским стационарным процессом. Запи- Записать для этого случая совместную плотность вероятности для фазы и ее производной в один и тот же момент времени. Ответ: As (Q Am @ = ге'@) 11.31. Определить плотность вероятности огибающей V {t) сум- суммы двух гармонических колебаний и гауссовского стационарного узкополосного шума %[(t) = = Л (if) cos [(oo? + ф (t)] с нулевым математическим ожиданием и дисперсией tff: Si@ + S2@ + l(t) = V (t) COS [COO< + ф (Ob Случайные начальные фазы фх и ф2 предполагаются равномерно распределенными в интервале (—л, л). 837
Ответ'. X /n л=1 Указание. Для решения задачи следует воспользоваться интегральным представлением функций Бесселя [17] 1п(х) = я = 1 f e*cose cos nQdQt n = 0, 1, 2 и частным случаем, «теоремы сложения» бесселевых функций: /0 [т Va2 + b*— 2abcosd ) = /0 (та) /0 (тЬ) + + 2 ^ I n (та) In(mb) cos nQ, где а >0, b > 0 и 0 > 0. 11.32. На линейный детектор огибающей воздействует сумма s (<) + % @ = cos (юо< + ф0) -Ь Л @ cos [<aof + Ф @1 = V (f) cos [cd0/ + r|> (Ob где s (t) — детерминированный гармонический сигнал; \ (t) — ra- уссовский стационарный узкополосный шум с нулевым мате- математическим ожиданием и корреляционной функцией Rt(%) = = a|e-ax'cos юог. Определить приближенные выражения для математического ожидания Шп и корреляционной функции #„(т) напряжения на вы- выходе детектора r\ (t) = V (t) при больших (а = AJa > 1) и малых (а < 1) отношениях сигнал/шум. Ответ: f f 12. ВОЗДЕЙСТВИЕ СЛУЧАЙНЫХ ПРОЦЕССОВ НА НЕЛИНЕЙНЫЕ СИСТЕМЫ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Среди нелинейных преобразований случайных процессов простейшим является такое преобразование (рис. 12.1), при котором значение выходного процесса т) (/) в любой момент времени определяется только значением вход- входного процесса | (t) в тот же момент времени: л @ - / \Ъ @1. A2.1) где / [|] — некоторая нелинейная функция. Такое нелинейное преобразора- ние называют безынерционным или функциональным. К безынерционному сводятся также нелинейные преобразования, при которых входной^и выходной процессы %(t) и n (t) подвергаются дополнитель- дополнительной трансформации линейными системами (рис. 12.2), ие оказывающими реакции иа нелинейный элемент. Такое преобразование можно записать в форме С @ - LJ IL& @1. где Li и La—линейные операторы, описывающие поведение линейных систем. Поскольку правила преобразования характеристик случайных процес- процессов линейными системами известны (см. гл. 10), для изучения указанных не- нелинейных преобразований достаточно рассмотреть преобразование A2.1). Общее правило. В общем виде принципиальное решение задачи о не- нелинейных безынерционных преобразованиях случайных процессов дается известным свойством инвариантности дифференциала вероятности. Пусть известна г.-мерная плотность распределения вероятностей рп (?х, 5а. •••. 5п) случайных величин gx, %2, ..., |п и нужно найти плотность распределения ве- вероятностей "рп (т)!, тJ, ..., т)п) Для случайных величин 2, .... Inl. A2.2) T\n=fn III. 1г In], где ft — кусочно-иепрерывные функции. Если существуют однозначные обратные функции ?2 — Ф2 hi. Л2. •¦-. Лп]. in = Фп I'll. Лг- •••> 'Пп]. A2.3) ffl Линейная система It Мелиней//б/й 6~езшерцион- //ь/unpeotfpcr- зователь Линейная Gucme/iff Li qtt) Рис, 12.1. Нели- Нелинейный безынер- безынерционный преоб- преобразователь 338 Рис. 12.2. Типовое радиотехническое устройство 839
то интересующая нас плотность распределения вероятностей определяется формулой Рп(тц. Лг ¦ - - • i\n)=Pn(<Pi[T\i> ЛпЬ где фп1%. Лг Лп]I^п1. A2-4) 'li ln) ¦ A2.5) 1. Лг Лп) — якобиан преобразования от переменных |х, |2> ••¦> In K переменным %, ТJ> •••• Лп- В тех случаях, когда обратные функции ф; неоднозначны, в правой части формулы A2.4) следует взять сумму по каждой из подобластей. Рассмотрим следующий частный случай. Пусть /a ISx. W. Л причем обратные функции ?х » ф^ть] = %, Ъг = В данном случае икобиаи преобразования A2.5) [Чх> однозначны, а совместная плотность распределения вероятностей р3 (r\lt r\) случайных ве- величии т]! и т) в соответствии с A2.4) определяется формулой A2.6) Интегрируя A2.6) по т|х, получаем одномерную плотность распределения ве- вероятностей для случайной величины т] оо i (Ль Фг (Ль Л1) дц A2.7Х При применении формулы A2.4) к практически интересным нелинейным преобразованиям могут возникнуть трудности. Так, если функции/; являются полиномами выше третьей степени, в общем случае затруднительно найти функции фг, т. е. аналитически разрешить систему нелинейных уравнений A2.2) относительно |,-. Аналогичные трудности возникают и при транс- трансцендентных функциях /;-. При кусочно-линейной аппроксимации функции /; оказываются разрывными и производные дцц/dfi во многих типовых случаях в некоторых точках могут быть равными бесконечности. Ввиду сложности непосредственного вычисления плотностей распределе- распределения вероятностей часто ограничиваются нахождением более простых, но ме- менее полных статистических характеристик выходного процесса, например ма- математического ожидания и корреляционной функции. Применительно к раз- разным видам нелинейных преобразований для определения этих характеристик можно указать несколько методов. Полиномиальное преобразование [29]. Пусть характеристика нелиней- нелинейного элемента т) = f [?] является аналитической функцией в окрестности не- некоторой точки С. Тогда ее можно разложить в ряд Тейлора: |=/ Ц]=ао+а1 (Е- ... +ап (?- k\ A2.8) число членов которого определяется точностью аппроксимации. 340 Обозначим начальные моментные функции процесса ? (t) через т, a r\(t)— через т. Статистически усреднив левую и правую части равенства A2.8), получим щ @ = M{ti @} = mn @ = а0 + fljM {| (t) - С} + ... + М{Ц (t) - С]"}. A2.9) Перемножив левые и правые части равенств A2.8) для двух моментов вре- времени ti,'t2 и выполнив операцию статистического усреднения, найдем выраже- выражение для двумерной моментной функции (ковариационной функции): (к. У = - 2С] ) - С]п [? - Сщ (< ) - С]"}. С2] A2.10) Аналогично находятся выражеиия для высших моментиых фуикций. Дли получеиия выражеиия момеитиых фуикций процесса т) @ в ивиом виде через момеитиые функции процесса S @ нужио воспользоватьси форму- формулой бинома Ньютона S раскрыть члены вида IE (<i) ~ С]" (tt) - С]1 [g (t3) - С]" .... k, I, т< п, и затем выполнить статистическое усреднение. При этом, если процесс ? (t) задан своими моментными функциями, сразу получаем нужный результат. Если же процесс | (t) задан плотностями распределения вероятностей или характеристическими функциями, то по иим необходимо предварительно вы- вычислить его моментные функции. Моментные функции сравнительно просто находятся для гауссовского стационарного процесса |(f). Пусть математическое ожидание т^ такого про- процесса равно нулю; обозначим его дисперсию через ?)¦ =» о|, а нормированную корреляционную функцию — через г. (т). Нетрудно убедиться [6], что при этом одномерные момеитные функции стационарного гауссовского процес- процесса определяются формулой v v Jl-3-5- • (v — 1) о? при четном v, I0 при нечетном v, а для двумерных моментиых функций справедливо сеЪтношение где ft = o = J 61 Здесь ф(")(г) = dn(fr(z)/dzn — п-я производная от интеграла вероятности г ф(г) = —— Г t~xt' V2S J A2.11) 00 341
Совокупность коэффициентов AjK образует матрицу, приведенную в табл. 5.3. Трехмерные моментные функции гауссовского процесса определяются аналогично [26]. Общее правило вычисления многомерных моментных функ- функций установлено в работе [69]. Из формул A2.9) и A2.10) видно, что моментные функции процесса т) (t) линейно выражаются через моментные функции процесса | (t), однако фор- формулы для моментных функций выходного процесса включают более сложные моментные функции входного процесса. В этом состоит одна из характерных особенностей любого нелинейного преобразования (в том числе и полино- полиномиального) по сравнению с линейным. Кусочно-разрывные и трансцендентные преобразовании. При рассмотре- рассмотрении воздействия достаточно сильных сигналов и помех на нелинейные уст- устройства часто применяют аппроксимацию их характеристик кусочно-разрыв- кусочно-разрывными или трансцендентными функциями / [?], поскольку они позволяют лучше передать существенные свойства участка нелинейной характери- характеристики. Вычисление моментных функций выходного процесса для нелинейных преобразований A2.1) такого вида можно выполнять двумя тесно связанными методами: прямым и методом характеристических функций [36]. В прямом методе используются сами нелинейные характеристики и ста- статистическое усреднение выполняется при помощи плотностей распределения вероятностей. При этом одномерные моментные функции находятся согласно очевидной формуле mv(o=M{Tiv(o}= J Г В @1 л F: 0 4. 00 а для двумерной моментной функции щл (tlt <2) справедливо соотношение A2.12) 1. 6.; = с г — оо —оо где ?i = 5 (ti), ?2 = I (fj. В методе характеристических функций нелинейная характеристика пред- представляется при помощи преобразования Лапласа: где L —^соответствующим образом выбранный контур интегрирования в ком- комплексной области и. Вид контура интегрирования и выражение функции F (/и), представляющей собой прямое преобразование Лапласа нелинейной функции / [|] приведены в табл. 12.1 [34]. Нетрудно убедиться, что в данном случае двумер- двумерная моментиая функция т1Л (tlt t2) определяется формулой 4я *J *) F(ju2)X 1 1 x62(/ui, \щ\ /,, t2)dUldu2, A2.13) где в2 (/«!, ^u«; fj, f2)—двумерная характеристическая] функция входного воздействия | (/). 843 Из A2.12) и A2.13) следует, что как метод характеристических функций, так и прямой метод требуют одних и тех же априорных сведений о входном случайном процессе ?(/), ибо характеристические функции и плотности рас- распределения вероятностей, как известно, связаны преобразованием Фурье. При выб< ре того или иного из рассмотренных методов решающее значение имеют ие столько теоретические соображения, сколько вычислительные труд- трудности. В заключение отметим, что если | (t) является гауссовским случайным процессом, то естественным результатом прямого метода является выражение ответа через табулированные производные от интеграла вероятности A2.11), а при использовании метода характеристических функций ответ чаще выра- выражается через гипергеометрические функции [71]. Однако это не имеет сущест- существенного значения, так как производные от интеграла вероятности и вырож- вырожденная гипергеометрическая функция связаны друг с другом известными соотношениями [70]. Если на вход рассматриваемого нелинейного элемента воздействует га- уссовский стационарный процесс | (t) с нулевым математическим ожиданием т. = 0, дисперсией D. = а| и нормированной корреляционной функцией г.(т), то процедура вычисления интегралов в правых частях формул A2.12) и A2.13) может быть упрощена с помощью специальных приемов. Примени- Применительно к формуле A2.12) один из таких приемов, названный методом дельта- функции, был развит в работах [72, 73]. Позже аналогичный метод, называе- называемый методом Прайса [74], был применен к вычислению интегралов вида A2.13). м> Метод дельта-функции базируется на представлении двумерной плот- плотности распределения вероятностей гауссовского стационарного процесса | (t) с нулевым математическим ожиданием, имеющей вид 1 Рг(?1" ?г) в форме ряда [6] l-rf (т) .ехр — A2.14) На основании этого разложения формулу A2.12) можно представить в Виде г. 15) где математическое ожидание выходного процесса т) (t) определяется соот- соотношением 7" A2-16) Из A2.16) следует, что корреляционная функция выходного процесса равна /?T,(T)=-mi,i(T)—m» = R»l l— ОС 84а
Табли ца 12.1 Тип нелинейного устройства 1. Устройстно с харак- характеристикой v-й степени 2. Устройство с харак- характеристикой v-й степени со смещением 3. Однополупериодныи линейный выпрямитель 4. Выпрямитель с ха- характеристикой v-й сте- степени и с ограничением Характеристики нелинейных устройств ¦n-fm А валвтическое выражение (v — целое) ail-B)v (v — целое) Габ. 1>0, to, ко I 0. \'< В (v — положительное) График 7П Ч \у 1,у V О ? 0 В ? Р(М av! a«)v+I (/«)v+1 c a (/«)a «r(v + l) ltuB (A0v+1 e 1 L Положительная петля вокруг и = 0 То же Действительная ось и от оо до —оо.^вырез вниз при и = 0 То же 5. Линейный выпрями- выпрямитель с ограничением 6. Однополупериодныи выпрямитель 7. Идеальный ограничи- ограничитель 8. Сглаженный ограни- ограничитель | aD, g > D, |М1]. 1>о, [о, ко | 1. %>0, 1-1. 1<0 1 С -Х-/2Э- . V2SP J C "А 0 1?Г 0 Л 'S « 1 ; 0 — 1 * f—, a(l-e-l"D) (/«)a 0 1 и i -4 э! «• To же » »
Применяя к A2.17) интегрирование по частям v раз и используя извест- известные свойства функции Ф(") (г) [70], получаем J { J J п! A2.18) Применительно к различным кусочно-разрывным характеристикам нелиней- нелинейных элементов следует выполнять интегрирование по частям такое число v раз, чтобы v-я производная /'v) [?] превратилась в дельта-функцию или сум- сумму дельта-функций. Формула A2.18) устанавливает связь мелсду корреляционной функцией выходного процесса и нормированной корреляционной функцией входного процесса и, следовательно, позволяет найти спектральную плотность выход- выходного процесса по известной спектральной плотности процесса на входе нели- нелинейного элемента. Наличие в A2.18) членов с п > 2 приводит к искажению и расширению спектра выходного процесса по сравнению со спектром вход- входного процесса. В этом, в частности, состоит вторая особенность нелинейных безынерционных преобразований. При вычислении интегралов A2.13) можно продуктивно использовать тот факт, что для характеристической функции стационарного' гауссовского процесса ? (t), имеющей вид 92 (/«х- /«г) =М {exp [;Bl = ехр{—?-«| 02.19) справедливо соотношение *» = (-1)* (/«1. К), в соответствии с чем A2.13) можно представить в следующем виде: ,fc - - . „2k ¦J (/«/ F{}Ui)dui\ (№> 4я2 Подставив сюда исходное определение характеристической функции A2.19) и изменив порядок интегрирования и статистического усреднения, полу- получим [74] а*. оо - оо дг J A2.20) — ОО —ОО При вычислении корреляционной функции процесса на выходе нелиней- нелинейных элементов с кусочно-разрывиыми характеристиками по формуле A2.20) нужно брать такое значение й.'при'котором /(*'[?] обращается в сумму дель- дельта-функций. Тогда интеграл в правойчасти A2.20) всегда вычисляется и, сле- следовательно, находится k-я производная функции т1Л (т). Что касается по- последующего интегрирования по значениям нормированной корреляционной фуикции>? (т) с целью^определения'тх^т), то оно^особенпо легко выполняет- выполняется в частном случае, когда /(*) [?] •= ± б (|) и воздействующий нормальный Стационарный процесс | @ имеет нулевое математическое ожидание. 346 2. ПРИМЕРЫ 12.1. На безынерционный двухсторонний квадратичный детектор с характеристикой (рис. 12.3) Л =/Ш = а?2, а>0, воздействует стационарный гауссовский шум ? @ с плотностью распределения вероятностей Vai. ехр| — 2a? A2.21) Определить плотность распределения вероятностей р^ц) про- процесса г] (t) на выходе детектора. Решение. При a > 0 случайная величина ц = ц (t) не может быть отрицательной, поэтому при х\ < 0 функция р^т]) = 0. Для г\ > 0 имеем I = ф [т]1 = ± в соответствии с чем модуль якобиана преобразования A2.5) равен \dtfdi\\ = 1/2Ущ. Учитывая, что в рассматриваемом примере функция ? = ф [г\] двухзначна, по формуле A2.4) находим л<о. Если математическое ожидание процесса ? (t) равно нулю =0), то формула A2.22) приводится к виду (см. задачу 2.31) , ц>0, 2м\ 0, Т|<0. График этой функции приведен в табл. 12.2. Рис. 12.3. Амплитудная характеристика двух- двухстороннего квадратичного детектора 347
Таблица 12.2 Плотности распределения вероятностей рх (т|) на выходе типовых безынерционных нелинейных устройств Тнп нелинейного устройства 1. Двухсторонний квадра- квадратичный детектор 2. Односторонний квадра- квадратичный детектор 3. Односторонний ограни- ограничитель Г «I2. \ > О, \0, ?<0 *1> X > а, О, l< а О a О а ? в- 9 ^1у О f 4. Двухсторонний ограни- ограничитель ¦-ь, а, V Sf Jz -fi О ее <f О а 5. Квантователь на два уровня 0 { 0 в ff 6. Квантователь на трн уровня ¦~ь, К-Р, О, ¦—р<|< а, . а, |>а J- -р О ос -6 О а 7. Ограничитель О, — Y«?<e, a, 7Г. e a -p-yOea. Ш -b 0 a
Рис. 12.4. Воздействие случайных процессов на безынерционный огра- ограничитель 12.2. На вход безынерционного ограничителя с характеристикой (рис. 12.4) (~Ь при ?<—р, Ч =/!?]= U при -p<S<a, A2.23) [ а при Е-^а воздействует стационарный гауссовский случайный процесс ? (t) с плотностью распределения вероятностей A2.21). Определить плотность распределения вероятностей р^ц) про- процесса ц (t) на выходе ограничителя при s > 0. Решение. На интервале (—Ъ, а) преобразование г\ = / [?] в дан- данном примере является линейным: r\= s?. Поэтому внутри этого ин- интервала = P?(-f)-p -b<r)<a. Вероятность того, что ц <—& или ц> а, равна нулю, а ве- вероятность того, что г] заключено в интервале (—Ь, а), Р( — 6<т]<а)= Г Pi(ti)d-n = — Г pi(-^)dr). 350 Все значения ?, для которых ?^ос, преобразуются ограничи- ограничителем в одно значение ц — а (рис. 12.4). Аналогично, все значения | <: —Р преобразуются в значение х\ = —Ъ. Следовательно, веро- вероятность а преобразуется для г\ в дельта-функцию, расположенную в точке г] = а. Множитель при этой дельта-функции 8 (ц — а) пропорцио- пропорционален Sv Вероятность преобразуется для ц в дельта-функцию, расположенную в точке г] = —Ь, множитель при этой дельта-функции б (r| + b) пропорцио- пропорционален S2. Таким образом, искомая плотность распределения ве- вероятностей равна — р\ s Pl(r1)= О, ti<— Ъ, ц>а. Здесь К — коэффициент пропорциональности, определяемый из ус- условия нормировки плотности распределения вероятностей pi(r\): -b Очевидно при s = 1 коэффициент X — 1. График плотности распределения вероятностей р^ц) приведен в табл. 12.2. Там же представлены плотности распределения веро- вероятностей pifa) на выходе некоторых безынерционных нелинейных устройств при воздействии на их вход стационарного гауссовского случайного процесса \ (I) с нулевым математическим ожиданием Щ = 0. 12.3. На нелинейный элемент с параболической характерис- характеристикой П = f Ш = а,1 + аЛ* * воздействует стационарный случайный процесс l(t) = s (t) + п (t), где s (t) = Ат cos (ю0/ + ф) — гармонический сигнал с постоянными амплитудой и частотой и случайной начальной фазой ф, равномерно распределенной на ин- интервале (—я, я), а п (t) — гауссовский стационарный шум с нуле» вым математическим ожиданием и корреляционной функцией Дп(т) = М {п @ п (t + т)} = а*гп(х). 351
Определить математическое ожидание т^ и корреляционную функцию /?т,(т) процесса ц (t) на выходе элемента при условии статистической независимости сигнала и шума. Для частного случая гп (т) = е-а|т| определить физическую спектральную плотность S^if) центрированного выходного процесса T\o(t) = T) (t) — ГПц. Решение. По условию Л @ = ajs (t) + n (t)) + a2ls (t) + n (t)? = = ats (t) + агп (t) + a^(t) + 2a2s (t) n (t) + a2n*(t). A2.24) Производя статистическое усреднение соотношения A2.24) и учи- учитывая, что в рассматриваемом примере М {s (t)} = 0, М {п (t)} = 0, М {s (t) n (t)} = 0, получаем следующее выражение для математического ожидания процесса ц (t): Перемножив равенства A2.24) для моментов времени t и t + т, выполнив статистическое усреднение результата перемножения, вы- вычислим двумерную моментную (ковариационную) функцию про- процесса ц (t) mlA{x) = M {i\(t)x\(t + x)) = = Кц(х) = d*[(A№) cos соот + огЛгп(т)] + + а*[(Л?/4) A + 0,5 cos 2со„т) + 2А?о%гп(ч) cos соот + Afo* + + о* + 2а* г*(т)]. Отсюда находим корреляционную функцию ЯлМ = /пм(т) — ml = a\(ASJ2) cos соот + + аЪ(А№) cos 2соот + aforjrn(t) + 2а22а*гй(т) + + 2аМДог2п гп(т) cos со„т. A2.25) Для вычисления спектральной плотности St,, (/) следует. вос- воспользоваться формулой F.21): A2.26) После подстановки в A2.26) корреляционной функции A2.25) при гп(т) = ехр (—а |т| ) находим X a2 Гп) X A2.27) 352 X Рнс. /12.5. Дискретно-сплошная спек- спектральная плотность Рис. 12.6. Перемножи- Перемножитель Из A2.27) следует; что спектральная плотность S^if) является дискретно-сплошной (рис. 12.5). Она состоит из двух дискретных спектральных линий при / = /0 и / = 2/0, обусловленных наличием на входе параболического элемента гармонического сигнала s (t); низкочастотного сплошного спектра, обусловленного только шу- шумом, и сплошного спектра, расположенного в окрестности частоты / = /0. Последний обусловлен взаимодействием сигнала s (t) и шума п (t) в результате нелинейного преобразования. 12.4. На входы перемножителя (рис. 12.6) воздействуют ста- стационарные некоррелированные случайные процессы l^t) и %2(t) со спектральными плотностями S1(<u) и S2(w), соответственно рав- равными 0 A2.29) A2.28) при других ю; Ш2, —ю2-А/2<со<— S2(o)) = Ш2, оJ—А/2<о)<с [о при других о). Определить спектральную плотность Sn(a) случайного процесса г] (t) = ^(t) I2(t) на выходе перемножителя. Решение. Спектральная плотность St,((o) случайного процесса г] (t) = ^(t) I2(t) в данном случае определяется формулой [1] оо -— с 2я J —v)dv, A2.30) где Sx(v) — спектральная плотность процесса %i(t); S2(co — v) — функция, сдвинутая на частоту со относительно спектральной плот- плотности S2(—v) процесса |г(/). Графическое изображение функций Sx(v) и S2(v) дано на рис. 12.7. Там же показана спектральная плотность S2(co — v). Интеграл A2.30) отличен от нуля только в том случае, когда отлична от нуля подынтегральная функция, т. е. когда спектральные плотности Sx(v) и S2(co—v) перекрываются. Как следует из рис. 12.8, при изменении со от —оо до оо, т. е. при перемещении спектральной 12 Зак. 1203 353
Рис. 12.7. Спек- Спектральные плотно- плотности процессов на входах перемно- перемножителя -a,-f 6>-az -UZA NZ .A \ i 0 r, A b>Z~T ! ,Sz«o-v) *>Z+J A 2 6) плотности S2(o>—v) слева направо относительно Si(v), такое пере- перекрытие имеет место в четырех случаях, первый из которых соответ- соответствует перекрытию составляющей спектральной плотности Sx(v) в области v<0c составляющей спектральной плотности S2(o> — v) в области о) — v > 0. Этот случай перекрытия Sx(v) и S2(o> — v) имеет место при значениях частоты ю, удовлетворяющих неравен- неравенствам (рис. 12.8) — — — - A2.31) Объединяя неравенства A2.31), находим следующую область зна- значений о), соответствующую первому случаю перекрытия функций Sx(v) и S2(© — v): —ю0 — Д о) —юс + Д, где (»(. = oJv— суммарная частота. Hz г I fl.A rV'+I Рис. 12.8. Области интегрирования 354 При дальнейшем увеличений ю и выполнении неравенств ® + «>2+— >Щ — -1-, о) + оJ г-<% + — наступает перекрытие составляющей спектральной плотности St(v) в области v>0c составляющей спектральной плотности S2(o> — v) при о) — v > 0. Соответствующая этому случаю область значений о) определяется соотношением Юр — Д ^ о) ^ о)р + Д, где о)р = щ — ю2 — разностная частота. Аналогично для третьего случая (перекрытие составляющих Sx(v) в области v < 0 и S2(o> — v) в области о> — v < 0) находим —л)р — Д ^ о) ^ —о)р + Д, а для четвертого (перекрытие составляющих Sx(v) в области v>0 и S2(o) — v) в области ю — v < 0) имеем юс — Д ^ о) ^ о)с + Д. Подставляя теперь в A2.30) значения Sx(v) и S2(o> — v), опреде- определяемые соотношениями A2.28) и A2.29), и производя интегрирова- интегрирование в указанных выше областях, получаем «л И = S0(oH + Д + с»), So (—о)о + Д — с»), S0(o)p + Д + ю), 50(—<»р + Д — ю), 50(—о)Р + Д + со), S0(o)p + Д — ю), So(—юс + Д + ц), S0(oH + Д — о)), —ю0 — Д —сос < о) —о)р — д -о) о) 0) < —0H, —Щ + Д, ; с» < —©p. ; — юр + д, )р, Д 0)p — Д ^ a) < o) 0)p < 0) < ft)p + Д, юс — Д ^ o) < o)c, ftH < 0) < 0H + Д, при других о), где So = N1N2l2a. График функции 5^@)) представлен на рис. 12.9. 12.5. На безынерционный ограничитель с характеристикой A2.23) воздействует стационарный гауссовский случайный процесс | (t) с нулевым математическим ожиданием mg = 0 и корреляцион- корреляционной функцией Ri(x) = ог|г6(т). Вычислить математическое ожидание щ и корреляционную функцию #т,(т) процесса r\ (t) на выходе ограничителя. Рис. 12.9. Спектраль- Спектральная плотность на вы- выходе перемножителя 12* (У 355
Решение [26]. В соответствии с определением математическое ожидание на выходе ограничителя .= f f где Pi(^) — нормальная плотность распределения вероятностей A2.21) при mi = 0. После подстановки р1A) в выражение для тц и несложных вычислений получим ] т„ = ; {к Для вычисления корреляционной функции /?т,(т) воспользуемся формулой A2.18). После двукратного дифференцирования нелиней- нелинейной характеристики /[?] ограничителя имеем ] +ф' {-к в соответствии с чем из A2.18) находим [26] ' г«(т) п! zj Оп^С*), A2.32) где ап= I ф("-0 Р n! a» Значения коэффициентов ап для различных случаев ограничения даны в табл. 12.3, откуда, в частности, следует, что определяю- определяющую роль в формуле A2.32) играет первый член с коэффициентом аг. Сумма всех остальных коэффициентов даже при сильном ограни- ограничении (например, симметричное ограничение а|(Т? = 0,1) состав- составляет примерно 35% от суммы всех коэффициентов. Поэтому иногда при расчетах в A2.32) учитывают только первый член, что по су- существу соответствует линейному преобразованию процесса | (t). 12.6. На вход квантующего устройства с характеристикой где i = 1, 2, 3, ..., N— 1, (рис. 12.10) воздействует стационарный гауссовский случайный процесс g (t) с нулевым математическим ожи- ожиданием mj = 0 и корреляционной функцией Ri(x) =• ог|/-|(т). 356 Таблица 12.3 ап О] Ог Из а. Чъ а. а, а. п Ol Ог <1, <*• °1 а. ап "i «» а4 о> «л а, а8 Значения коэффициентов ап V/Cg 0,1 | 0 ,3 | 0,5 0,7 1 ,0 Симметричное ограничение: a/at = P/at =v/ap 0,646 0 0,114 0 0,050 0 0,030 0 0,3 | 1 ,0 0, 0 0, 0 0, 0 0, 0 0,5 735 1 14 048 027 | 0,789 0 0,1 12 0 0,042 0 0,021 0 ra/ag 1,0 0 0 0 0 0 0 0 0 1,5 Несимметричное ограничение: |3/СТе = 0,681 0,007 0, 107 0,007 0,045 0,004 0,026 0,004 1,5 3,0 Р/СТ| = 0,3 0,809 0,036 0,081 3,019 0,021 0,011 0,007 0,006 0,704 0,021 0,099 0,015 0,037 0,011 0,019 0,009 1 ,0 1 ,5 J/ag = 3,736 3,078 3,062 1,042 1,012 1,025 1,003 0.015 3,0 0,5 1,0 0,739 0,142 0,025 0,052 0,001 0,020 0 0,008 1,5 0 ,837 , 103 ,033 ,013 2,0 0,740 •О,193 0,007 0,043 0 0,010 0 0,002 1.3,0i P/ag = 0.7 Несимметричное ограничение: 0.819 0,085 0,043 0,029 0,005 0,010 0,001 0,003 0,821 0,154 0,006 0,013 0,001 0,002 0,001 0,001 0,840 0,018 0,087 0,009 0,023 0,004 0,008 0,002 0 859 0,054 0,050 0,014 0,007 0,005 0,001 0,001 0,864 1,110 О.ОП 1,007 1,002 1 1,002 0 0,871 0,006 0,086 0,003 0,021 0,001 0,005 0 5/<*|> 0,893 0,031 0,053 0 008 0,008 0,002 0,001 0 3 0, 0 п, п 0, 0 0, 0 1,0 | 0,901 0 0,072 0 0,015 0 0,003 0 оо 0,733 0,233 0 0,020 0 0,006 0 0,003 1,5 | 3,0 Р/СТ|=0,1 902 075 014 003 003 ТО? 0,930 0,010 0,049 0,002 0,005 0 0 0 0 0 0 п п п п 0 ,939 ,025 ,029 ,002 ,002 0,944 0,038 0,015 0 0,002 0 0,001 0 Предполагается, что функция / [?] нечетна, т. е. —/ [—?] = / [?], а общее количество уровней квантования at равно четному числу. Определить математическое ожидание т„ и корреляционную функцию /?т,(т) процесса т} (t) на выходе квантователя. Решение [1]. Математическое ожидание 357
Рис. 12.10. Воздействие случайного процес- процесса на квантующее устройство Подставляя сюда плотность распределения вероятностей ргA), определяемую формулой A2.21) при mj= 0, и учитывая нечетность функции / [§], находим т„ = 0. Корреляционная функция процесса r\ (t) на основании формулы A2.17) равна * 2 Л| Выполнив интегрирование по частям, получим: Г — 00 Для рассматриваемого примера где Aj = а;+1 — аг — расстояние между соседними уровнями квантования. Таким образом, находим: 358 Подставляя это выражение в Rn(r), получаем следующую формулу для корреляционной функции: 12.7. Найти корреляционную функцию R^(x) на выходе бе- безынерционного сглаженного ограничителя с характеристикой (рис. 12.11) 6 где а и y — постоянные величины, при воздействии на вход ограни- ограничителя стационарного гауссовского шума с двумерной плотностью распределения вероятностей A2.14). Решение. Для определения #п(т) воспользуемся формулой A2.20). Подставив в нее первые производные t> ,t, __ 2а находим айЬ1(т) ЬгЛх) я?» у 1-г|(т) J J 1 — ею —оо 2ЯУ62—da X <12-33» где Двукратный интеграл в правой части равенства A2.33) равен единице, поскольку он представляет собой интеграл от двумерной Za Рис. 1-2.11. Амплитудная характери- характеристика сглаженного ограничителя 359
нормальной плотности распределения вероятностей по всей области изменения переменных. Следовательно, 2fl» Отсюда находим 2а2 г\{х) dx 1-х* п 2а* . -С= arcsin a?+v2 \-С, где С — произвольная постоянная интегрирования. Она опреде- определяется из условий НтГ|(т) = 0, Игл т1Л{х) = С = т\ — а2. Таким образом, искомая корреляционная функция равна 2а2 arcsin A2.34) Если воспользоваться разложением arcsin x — хЛ х3 -\ 1-3 2-3 2-4-5 функцию A2.34) можно представить в виде ряда „ , ч 2а2 ( °| Н (т) Я of+Y2 2-е 3. ЗАДАЧИ И ОТВЕТЫ 12.1. На вход двухполупериодного квадратичного детектора с характеристикой (рис. 12.3) г] = / Ц] = al2, a> О, воздействует стационарный гауссовский процесс | (t) с матема- математическим ожиданием т% и дисперсией D% = а|. . Найти плотность распределения вероятностей Pi(ri), математи- математическое ожидание тп и дисперсию Dn выходного процесса ц (t). Ответ: Г 1 2 + ехр О, Dr] = 2a2Dl(Di + 2m\), Г (/y^-mj2 I ехр ^ ^^ + L 2ai J Tl<0. 360 Рис. 12.12. Нелинейная электрическая цепь «-^—» 12.2. Огибающая Л (/) узкополосного случайного напряжения на входе квадратичного детектора огибающей распределена по зако- закону Релея: . Найти плотность распределения вероятностей Pi(ri), математи- математическое ожидание тп и дисперсию Dn напряжения ц (t) на выходе детектора, если г, @ = (а/2) Л«@- Ответ: т,, = аа2, D,, = a2 a4, pt (ц) = Ц Oj. 12.3. На цепь, состоящую из последовательно соединенных полупроводникового диода V и резистора R (рис. 12.12), воздейст- воздействует случайное напряжение \ (t), представляющее собой стационар- стационарный гауссовский шум с нулевым математическим ожиданием т5 = О и дисперсией D% = a\. Характеристика диода имеет вид <=/[«]= Sill, U- где ^i и ^' б — внутреннее сопротивление диода в прямом и об- обратном направлении. Определить математическое ожидание т; тока i (t) в цепи и его дисперсию Dt. Ответ: mt = —^- (s— sx); D; = -^- [(я — 1) (s2-f- sf) +2ssj]. /2я 2я 12.4. Найти плотность распределения вероятностей р^ц) на- напряжения т] (t) на выходе однополупериодного линейного детектора, характеристика которого представлена на рис. 12.13, если на вход детектора воздействует гауссовский случайный процесс | (t) с ну- нулевым математическим ожиданием mj = 0 и дисперсией D^ = <т|. Ответ: Pl (т,) =-|- б (л) + ^ 0. 341
о Рис. 12.13. Амплитудная характе- характеристика одиополупериодного ли- линейного детектора Рис. 12.14. Амплитудная характе- характеристика двухполупериодиого ли- линейного детектора 12.5. Найти плотность распределения вероятностей р^ц) на- напряжения т] (t) на выходе двухполупериодного линейного детектора, характеристика которого представлена на рис. 12.14. На вход детектора воздействует гауссовский случайный процесс ? (t) с ну- левым^математическим 'ожиданием mg = 0 и диспепсией Dj = а|. Ответ: А(П) = 1/— -5-е" ч>/2°4 tj> 0. 12.6. Найти одномерную плотность распределения вероятностей pi(y\) напряжения v\(t) на выходе однополупериодного квадратичного детектора, характеристика которого изображена на рис. 12.15, если на вход детектора воздействует гауссовский случайный процесс ? (О с нулевым математическим ожиданием mj = 0 и дисперсией 12.7. На квантующее устройство с характеристикой (рис. 12.16) Л = f Ш = a sgn ? воздействует стационарный гауссовский случайный процесс | (t) с нулевым математическим ожиданием /П{ = 0 и дисперсией D8 = g?. 0 Рис. 12.15. Амплитудная характе- характеристика однополупериодного квадратичного детектора Рис. 12.16. Амплитудная характе- характеристика квантователя иа два уров- уровня 362 Определить: 1) средний квадрат е2 разности процессов \ (t) и т] (t) на входе и выходе квантующего устройства; 2) значение а = aopt, минимизирующее е2, и соответствующий этому значению минимальный средний квадрат emin. Ответ: 1) е2 = М {МО — l(t)?} = at — 2К2/яаа6 + а2; 2) aopt = V2/nah e^in = A — 2/я)а|. 12.8. На вход квантователя (рис. 12.16) воздействует стационар- стационарный гауссовский случайный процесс | (t) сматематическим ожида- ожиданием mi и дисперсией Dg = af. Определить плотность распределения вероятностей рх (т)), ма- математическое ожидание тч и дисперсию Dr, процесса j\(t) на выходе квантователя. Ответ: Pi (Л) = ~ ^-) б (а 12.9. На симметричный ограничитель, характеристика которого представлена на рис. 12.17, воздействует стационарный гауссовский шум | (t) с нулевым математическим ожиданием mj = 0 и диспер- дисперсией D| = af. Найти одномерную плотность распределения вероятностей рх (tj) для напряжения т) (t) на выходе ограничителя. Ответ: где Ф (г) — интеграл вероятности A2.11). 12.10. Найти одномерную плотность распределения вероятно- вероятностей рх (л), математическое ожидание тц и дисперсию D4 напряже- напряжения на выходе идеального ограничителя с характеристикой если на вход ограничителя подается случайное напряжение 5@ с плотностью распределения вероятностей Л (Е) = Ee-f/2, S>0. Ответ Рх (Я) =П — е-"'/2]б (г,) + (т, + А)е-(ч+*)'/я, ^ ^ 0; тч = КйГ[1 - Ф (Л)]; Dr, = 2(е-*"/я - Лт,,) - т2. 363
Г" ФД о а -а Рис. 12.17. Амплитудная харак- характеристика симметричного огра- ограничителя X ФНЧ \trit) Рис. 12.18. Фазовый де- детектор 12.11. Напряжение и (t) на выходе фазового детектора (ФД), состоящего из перемножителя и фильтра нижних частот (ФНЧ) (рис. 12.18), равно и (t) = cos Ф @ = cos [9Х (t) - 92 (*)]. Определить плотность распределения вероятностей рг (и), если 9Х (t) и 92 (t) представляют собой независимые стационарные слу- случайные процессы, равномерно распределенные на интервале (—п,п). Ответ: рг (и) = 1/я]Л — , |и|<1. 12.12. На радиотехническое устройство, состоящее из квадра- квадратичного детектора огибающей, линии задержки и преобразователя— (рис. 12.19), воздействует гауссовский стационарный квазигармо- квазигармонический случайный процесс l(t) = A (t)cos [co0t + Ф (*)] с нулевым математическим ожиданием mj = 0 и корреляционной функцией #| (т) = ff|p|(x)cos соот. Определить одномерную плотность распределения вероятностей Pi (У), одномерную начальную моментную функцию v-ro порядка tnv (t) = M{yv (t)}, математическое ожидание ту (t) = m^f) = = M {y (t)} и дисперсию Dy (t) = m2 (t) — m\ (t) процесса у (t) на выходе преобразователя, осуществляющего сложение процессов ц(9 и u(t + T): y(t) = u (t) + u(t- т), где и (t) — процесс на выходе детектора, равный квадрату огибаю- огибающей входного шума | {t):u {{) = A2 (t). К ft) Рис. 12.19. Квадратичный детектор огибающей, линия зователь 364 НВадратичкый детектор огибающей > i—i Г lit-*) Препбразо- . Ватель уМ задержки и преобра- преобрад 10 7Z Рис. 12.20. Плотность распределения вероятностей суммы квадратов огибаю- огибающей квазигармонического шума Ответ: —ехр — -Ре) ,У>0, my(f) = mu = 4ol Dv(f)=Dy = &(\+pl)9i, РЕ=Рб(т)- График функции рг(у) приведен на рис. 12.20. 12.13. Решить предыдущую задачу при условии, что процесс на выходе преобразователя у (t) = и (t) — и {t— т). Ответ: Pi {У) = p|)vo|v; D, - 2о|A - р|). График функции рг(у) приведен на рис. 12.21. 12.14. Решить задачу 12.17 для случая, когда преобразователь представляет собой перемножитель, т. е. y(t) = и (t) u(t — т). 365
Ответ: Pi(y) = <$A-р|) mv = 4a|(l Dv = 16a|C + Mpf + 3p|). Здесь /0(z) и K0(z) — модифицированные функции Бесселя со- соответственно первого и второго рода [76]. График функции рх(у) при- приведен на рис. 12.22. 12.15. Решить задачу 12.12 при условии, что процесс на-выходе преобразователя равен у (t) = и (t — x)lu (t). Ответ: Рг(У) = -, у>0; пи,, ту и Dy элементарно не вычисляются. График функции pt(y) приведен на рис. 12.23. 12.16. На радиотехническое устройство, состоящее из линей- линейного детектора огибающей, линии задержки и преобразователя Рис. 12.2!. Плотность распределения вероятностей разности квадратов оги- огибающей квазигармонического шума 366 9,3- Й.2 0,1 I \ \ ——¦ и 1 * е в w л у/в\ Рис. 12.22. Плотность распределения вероятностей произведения квадратов огибающей квазигармонического шума 1 1 IX V " Л75 0,5 \ ° а—в * ===== 0,8 0,6 0,4 0,2 О Рис. 12.23. Плотность распределения вероятностей частного квадратов оги- огибающей квазигармонического шума 367
Линейши детектор огибающей (—1 г -г) qft) /7рео0р0зо- Вате/гй г/Ш ^ Рис. 12.24. Линейный детектор огибающей, линия задержки и преобразова- преобразователь (рис. 12.24), воздействует гауссовский стационарный квазигармо- квазигармонический случайный процесс I @ = А @ cos [mot + Ф @1 с нулевым математическим ожиданием т\ = 0 и корреляционной функцией ¦Rg(t) == cr|pg(r) cos соот. Вычислить одномерную плотность распределения вероятностей рг(у), одномерную начальную моментную функцию v-ro порядка mv@ = M {tp{t)}, математическое ожидание mv{t) = m^t) = = M{y(t)) и дисперсию Dy{t) = mt(f) — m\{t) процесса у (t) на выходе преобразователя, осуществляющего операцию суммиро- суммирования: y(t) = и @ + и (t — т), и @ = A (t). Ответ: 1-р2 Pi (У) = 2at —г- ехр 40? -IX X . v—k ту@ = ту — V2ncft, Dy(t) = Dj, = D — я) A +.pl) of, РЕ = РеСО- Здесь Г (г) — гамма-функция. График функции рг(у) приведен на рис. 12.25. 12.17. Решить предыдущую задачу при условии, что процесс на выходе преобразователя у (t) = и (t) — и (t — т). Ответ: Pi {У) ы -ехр — m2v ~ Bv - 1I1A „ - 0; Dy ~ ст|A - 368 l/l f ft ^0,8 L SSSS- Рис. 12.25. Плотность распределения вероятностей суммы огибающих квази- квазигармонического шума График плотности распределения вероятностей рг(у) приведен на рис. 12.26. 12.18. Решить задачу 12.16 для случая, когда преобразователь представляет собой перемножитель, т. е. у (f) = и (t) и (t — т). > 1,0 I no X \ \ У -2 Рис. 12.26. Плотность распределения вероятностей разности огибающих ква- квазигармонического шума 369
Ответ: /о Pi У ,У>0, JL; A.; 1; Р$)а|; Здесь 2Р\.(Х> У> z> Я) — гипергеометрическая функция [71]. Гра- График рл{у) дан на рис. 12.27. 12.19. Решить задачу 12.16 при условии, что процесс на выходе преобразователя у (t) = и (t — x)lu (t). Ответ: >0, щ- Здесь ? (z) — полный эллиптический интеграл 2-го рода. Гра- График плотности распределения вероятностей рг{у) приведен на рис. 12.28. Рис. 12.27. Плотность распределения вероятностей произведения огибающих квазигармоиического шума «Ж ¦ 0,8 0,6 о,г\ 1 Л Г 1 и \ f г ъ if 5 е у Рис. 12.28. Плотность распределения вероятностей частного огибающих ква- зигармонического шума 12.20. На вход радиотехнического устройства, состоящего из сумматора и линейного детектора огибающей (рис. 12.29), воз- воздействует гауссовский стационарный квазигармонический шум l(t) = A (t) cos [<в0* + Ф (*)] с нулевым математическим ожиданием mj = 0 и дисперсией Dg = = off и гармоническое колебание U0(t) = U„COS (<uot + if). В некоторый момент времени t = t0 на третий вход сумматора по- подается сигнал us(t) = Uscos (aot. Определить отношение (я а = — • где (туH — математическое ожидание процесса у (t) на выходе уст- устройства при воздействии на его вход процессов | (t) и uo(t), (mvH+s и (ОуH+$ — соответственно математическое ожидание и среднее квадратическое значение при воздействии процессов | (t), uo(f) и us{t). Рис. 12.29. Сумматор и линейный детектор огибающей 370 ипШ- USW- 371 Линейнь/й детектор пги&ающей
Ответ: а = 1/2 ' где U2 = U\ + При f/2/2tr| <C 1 и и%1Щ + 2t/st/ocosi|>. 1 имеем a( 4 \ 4—я при [/2/2а| > 1, 1Л/2а\ » 1 а = (I/ - */0)/а6. Графики функций а = / (t/o/tf5, t/s/tf5) приведены на рис. 12.30. 12.21. На вход безынерционного однополу пер йодного линейного детектора с характеристикой (рис. 12.13) at, о, ко;, воздействует стационарный гауссовский шум t (О С нулевым ма- математическим ожиданием т5 = О и корреляционной функцией Rz(%) = or|rg(T). Определить математическое ожидание щ, корреляционную функцию Rn(%) и дисперсию Dn выходного процесса у\ (t). / ф=-2пк У / У / У у =ffft У/ У У/ Г Zn-rf г / / у f WO О Рис. 12.30. Относительное приращение математического ожидания на выходе линейного детектора огибающей 372 Ответ [33]: UUt {[1 — Г|(ТI +r6(T)arccos[—г6(т)]}—т^~ —- v , _ „ 4 I JX(J| I z Указание: Следует воспользоваться разложениями в ряд: arccos (—z) = —+z-\ z3 + ..., 2 2*3 A — г2I'2 = 1 - — ... v 2 2-4 12.22. На вход безынерционного двухполупериодного линейного детектора с характеристикой (рис. 12.14) at, E>0. г\ =/[!] = -at, |<0, воздействует стационарный гауссовский шум \ (t) с нулевым математическим ожиданием шЕ = 0 и корреляционной функцией ЯеОО = ФеМ- Определить математическое ожидание тп процесса у\ (t) на вы- выходе детектора и его корреляционную функцию R^)- Ответ: = Л/~ аа^, R (т) = -?- Л| (г). у я яа| 12.23. На вход безынерционного однополупериодного квадра- квадратичного детектора с амплитудной характеристикой (рис. 12.15) at2, t>0, КО, воздействует стационарный гауссовский случайный процесс t if) с нулевым математическим ожиданием ш5 = 0 и корреляционной функцией R\(x) = о?|г6(т). Определить математическое ожидание тп и* корреляционную функцию #т,(т) выходного процесса ц (t). Ответ: ?л (т) = 2аа а$ i ~ arcsin r5 (т) +— г{ (т) arcsin rg(x) -\ г5 (т) у 1 — r\ (i 12.24. На вход двухполупериодного квадратичного детектора с амплитудной характеристикой (рис. 12.3) 373
воздействует стационарный гауссовский случайный процесс \ (t) с нулевым математическим ожиданием ^ = 0 и корреляционной функцией Ri(x) = <г|гЕ(т). Определить математическое ожидание отч и корреляционную функцию Rn(r) выходного процесса ¦ц (i). Ответ: тц = ао^; R^r) = 2а2#|(т). 12.25. На вход квантующего устройства на три уровня с амп-. литудной характеристикой (рис. 21.31) -ь, ?<-р, Ц = /[11= ¦ 0, — р<?<а, а, \>а, воздействует стационарный гауссовский шум \ (t) с нулевым ма- математическим ожиданием т\ = 0 и корреляционной функцией Определить математическое ожидание /пч и корреляционную функцию Rn(r) выходного процесса ц (t). Ответ: = (а-Ь)- \аФ " ^ (J, n=lL Ч 5 12.26. На вход несимметричного квантующего устройства на два уровня с амплитудной характеристикой (рис. 1.32) а, Е>0, -Ь, Е<0, воздействует стационарный гауссовский шум \ (t) с нулевым мате- математическим ожиданием т5 = 0 и корреляционной функцией #Е(т) = Определить математическое ожидание тл и корреляционную функцию ^„(т) процесса х\ (t) на выходе устройства. -А и о А а 9, а i ,—^_ о ж Рис. 12.31. Амплитудная характе- характеристика квантующего устройства на три уровня Рис. 12.32. Амплитудная ха- характеристика несимметрично- несимметричного квантователя иа два уровня 374 Рис. 12.33. Амплитудная характеристика ограничителя -А -Г Ответ: Ч - -j {а~Ь), #ч (т) =- О е -д arcsin r% (т). а 12.27. На ввод нелинейного безынерционного устройства с ам- амплитудной характеристикой (рис. 12.33) ~ъ, 1<-Р, О, —v < . . а&— е)/(а—е), e<g<a, а> 5 ^ а, где а/(а — е) = Ы(у — Р) = s, воздействует стационарный гауссов- гауссовский шум \ (t) с нулевым математическим ожиданием mg = 0 и корреляционной функцией #Е(т) = <г|гЕ(т). Определить математическое ожидание т^ и корреляционную функцию #ч(т) процесса ц (t) на выходе. Ответ: 2 п=1 12.28. На вход однополупериодного линейного детектора с амп- амплитудной характеристикой 375
воздействует стационарный гауссовский случайный процесс |(^) с нулевым математическим ожиданием mj = 0 и корреляционной функцией R% (%) -- о|^(т). Определить математическое ожидание пц и корреляционную функцию Rr](f) выходного процесса ц (t). Ответ: Л{х) 12.29. На логарифмическое устройство с нелинейной характе- характеристикой вида воздействует стационарный гауссовский случайный процесс | (f) с нулевым математическим ожиданием mj = 0 и корреляционной функцией Rb{%) = о|г5(т). Определить корреляционную функциию Rn(x) и дисперсию Dn процесса ц (t) на выходе. Ответ [77]: Ял (т) = -!— У in A +ах) е 2 Аг (*) ^ г| (т), где а = смт?)Л2; Dn(x) — функция параболического цилиндра [78]; 00, 1 о 12.30. На вход симметричного ограничителя с характеристикой (рис. 12.34) a0 воздействует гауссовский стационарный шум | (t) с нулевым мате- математическим ожиданием mg = 0 и корреляционной функцией 376 Рис. 12.34. Амплитудная характери- характеристика симметричного сглаженного ог- ограничителя Рис. 12.35. Безынерционное нелиней- нелинейное устройство с двумя входами xf(t) f[xr,x{j Т Определить одномерную плотность распределения вероятностей Px(ti) и корреляционную функцию ^л(т) процесса ц (t) на выходе ограничителя. Ответ [79]: Pi (Л) = 1 / if z=r— ехр ( — '- 1/2а, С о0, а0; цу ' ц arcsin[l/(l+a)] а% 12.31. На вход безынерционного нелинейного устройства (рис. 12.35) воздействуют стационарные гауссовские случайные процессы xx(t) и x2(t) с нулевыми математическими ожиданиями mXl = тХг = 0 и дисперсиями DXt = DXl = 1. Совместная плот- плотность распределения вероятностей процессов xA(t) и x2(t) имеет вид 2л Vl— г2 ¦ехр — х\— 1 2A—г где г = г (т) — нормированная взаимная корреляционная функ- функция. Процесс на выходе нелинейного устройства определяется соотношением Доказать, что п-я производная от математического ожидания M{y(t)} по г(т) дп М {у @} _ м \ д2п f \xi (t) ¦ Ч @1 дгп(х) \ dnXl(t)dnxAt) 377
12.32. Используя результат задачи 12.31, определить матема- математическое ожидание М {у (t)} процесса у (t) на выходе безынерцион- безынерционного нелинейного устройства с характеристикой у (t) = @1 = 1 - l>i @ - где xL(t) и x2@ — стационарные гауссовские случайные процессы с нулевыми математическими ожиданиями mXl = тх% = 0, дис- дисперсиями DXt = Dx, — 1 и совместной плотностью распределения вероятностей Ответ: M{y(t)} 2A-г») 12.33. Процесс r\ (t) формируется из случайного колебания ? (t) посредством нелинейного безынерционного преобразования: ¦Л @ = / [? W- Предполагается, что \ (t) — стационарный гауссов- ский случайный процесс с нулевым математическим ожиданием mg = 0 и корреляционной функцией R\{x) = of|rg(T). Определить корреляционную функцию R^{%) процесса ц (t) для следующих частных случаев: 1) ti @ = Б (9 5 (* + Т); 2) г! @ = Ответ: 2) 3) 3) = Rl(x) + i?g(x + Т) Я?(т - Т); = 67?|(т) + 9а|Я?(т); = 247?|(т) + 72а|7?|(т). 12.34. Определить спектральную плотность S^co) случайного процесса т] (t) на выходе однополупериодного линейного детектора с амплитудной характеристикой о, l < о, при воздействии на его вход стационарного гауссовского случайного процесса ?,~(t) с нулевым математическим ожиданием mg = 0 и спектральной плотностью 0 СО < С02, при других со. Ответ: S4(co) = (a2N0/2n) (оз2 — to,) б (со) + S4()(u>), 378 где I аг No Щ — (О! — со 2я 2л 2л @а —~ (Oi (о—2@] @а — (О! 2(о2 —(о COj 2сох СО ^ С02, сох со2, 2л о сох + со2 < при других со График функции 5„, (со) представлен на рис. 12.36. 12.35. Определить спектральную плотность 5„(со) случайного процесса ц (t) на выходе двухполупериодного линейного детектора с амплитудной характеристикой -аБ, Б<о, при воздействии на его вход стационарного 'гауссовского случай- случайного процесса Б (О с нулевым математическим ожиданием mg = О и спектральной плотностью No, о Ответ: 5„(со) = О при других со. ;) (со2 — сох) б (со) + S4o(©), где 2я (оа—(о a* No (о—2@! л (оа—(Oi a?N0 2(oa—(о со << % + со2> COi +С0, со График.спектральной плотности 5Ч|)(со) приведен на рис. 12.37. йJ~61/ 0>f a^ Г<У/ «У/+й»2 ?W2 w Рис. 12.36. Спектральная плотность процесса на выходе однополупериодиого детектора 379
я /т О Рис. 12.37. Спектральная плотность процесса на выходе двухполупериод- ного линейного детекто- детектора 2 Of 12.36. На вход радиотехнического устройства, состоящего из дифференцирующей схемы и перемножителя (рис. 12.38), пода- подается гауссовский случайный процесс \ (t) с нулевым математическим ожиданием Ш| = 0 и корреляционной функцией ) = а\ е~а'т' (cos со0 ? -f — sin со01 т \). Определить спектральную плотность S,,(co) процесса ц (t) на вы- выходе устройства. Ответ: Sn (со) = (соа+4аа)[(со2 + 4аа —1б<о2со2] 12.37. На входы перемножителя (рис. 12.6) подаются незави- независимые стационарные случайные процессы | (t) и \i (t) с математи- математическими ожиданиями mg и т„, и корреляционными функциями Rt-M = afe~aiTl, R M = a2e~P'Tl. Определить спектральную плотность 5^(со) процесса х\ (t) на вы- выходе перемножителя. Ответ: S )- 12.38. На вход радиотехнического устройства, состоящего из дифференцирующих схем и перемножителя (рис. 12.39), подаются независимые стационарные случайные процессы %$) и I2(t) с ну- ею d dt ¦ I X Рис. 12.38. Дифференцирующая схема и перемножитель ^ d dt dt Рис. 12.39. Две дифференцирую- дифференцирующие схемы и перемножитель 380 Рис. 12.40. Синхронный детектор xtt) X W(thx(t)u(t) z(t) Гетеродин левыми математическими ожиданиями mg, = mg, = 0 и корре- корреляционными функциями Rh (т) = a|t е-ач т' fcos ^ т -f -^- sin cox | т |V, (cosco2т-f -^- sinсо21 т '(c \ Определить корреляционную функцию Rn(r) и спектральную плотность 5„(со) процесса т] (t) на выходе перемножителя. Ответ: Я* (т) = /?fc (т) RL (X) = af, af, (a? + со?) (a| f col) X X e-(a«+a«>! г' fcosсо!т —2t- sin cox | т\)(cos co2 т-—^-sin co21 т|); \ 0) )\ Щ ) « cos б, +(cd — c gcos61+(co+toc) М (со-сос)а+«а , acos62-f-(co—cop) sin 62 a cos62-j-(a)-|-CDp)sin 62"| (со—cop)a+a2 (w+(op)a+a2 J' 6i i где а = af, a|, со? cof/2 cos3 Yi cos3 y2, yx = arctg -^-, y2 = arctg -^2- , a = ax - = Yi + Y2. = Yi — Y2. coc to2 cox coa, cop = coi — coa. 12.39." Найти спектральную плотность 5v(co) процесса у (t) на выходе умножителя синхронного детектора (рис. 12.40), если воздействующее на детектор колебание х (t) = s (t) + п (t), где входной шум п (t) представляет собой стационарный гауссовский процесс с нулевым математическим ожиданием тп = 0 и спектраль- спектральной плотностью а полезный сигнал s (t) = Am cos (co0* + 6)- 381
Рис. 12.41. Балансный модулятор Здесь Ат—постоянная амплитуда, 0 — равномерно распреде- распределенная в интервале (—я, я) случайная фаза, не зависящая от шума. Ответ: Sy(f) = Sys(f) + Syn(f), где — спектральная плотность сигнала на выходе умножителя; — спектральная плотность шума на выходе умножителя. 12.40. На входы балансного модулятора (рис. 12.41) поступа- поступают стационарные и стационарно связанные случайные процессы ^(t и ?2@ с нулевыми математическими ожиданиями mg, = mg, = , корреляционными функциями /?|,(т) = i?g,(t) = a2r (т) и взаимной корреляционной функцией i??,?,(T) = <х2г1а(т). Определить корреляционную функцию Rn(x) выходного про- процесса r\\(t). Ответ [ 24ft~vra/v+1) [г ( / l 12.41. Случайная величина т] (Т) формируется в результате усреднения квадрата стационарного гауссовского случайного про- процесса | (t) на интервале Т: Г/2 Г Г/2 Г/ -Г/2 Определить математическое ожидание тп величины г\ (Т) и ее дисперсию D4 при условии, что процесс \{t) характеризуется сле- следующими спектральными плотностями: 2) ss(©)= ш0 "А- Устройстбо выборки Накопитель Рис. 12.42. Дискретный накопитель Ответ [14]: 2) пц = а{ 2ст| 12.42. На вход схемы рис. 12.42, состоящей из линейного детектора огибающей (ЛДО), устройства выборки и накопителя, воздействует стационарный гауссовский квазигармонический шум ? @ = А @ cos [©of + Ф (<)] с нулевым математическим ожиданием mg = 0 и дисперсией' Dg = a§. Выборочные значения At = A (tt) взаимно не коррели- рованы. Определить математическое ожидание ту, дисперсию Dy и плот- плотность распределения вероятностей pi(Y) случайной величины Y на выходе накопителя, если =—У Ait Ответ: 12.43. На систему ограничитель—фильтр (рис. 12.43) воздей- воздействует стационарный гауссовский шум ? (?) с корреляционной функцией Ri (т) = afexp (—71 т |]). Рис. 12.43. Система ограничитель- фильтр Ограни- Ограничитель Фильтр 382 383
Определить корреляционную функцию #д(т) процесса [г (t) на выходе системы в предположении, что амплитудная характерис- характеристика ограничителя имеет вид (рис. 12.4) —Ь, К — р, а, I > а, импульсная характеристика фильтра причем тх > 1/у, т2> My. Ответ [80]:] *\(Цт7 —^°т] -—Iti i —-itl j / 111 111 e Tl где Ф(л>(г)— n-я производная от интеграла вероятности A2.11). 12.44. На приемное устройство, схема которого изображена на рис. 12.44, воздействует стационарный белый шум ? (t), спект- 384 Z(t)-Yl<t) Линейная система 1 1 двухсторонний квадратичный детектор огибающей 1 1 Фильтр RC Рис. 12.44. Радиоприемное устройство ральная плотность которого Sg(co) = NJ2. Комплексная частот- частотная характеристика линейной системы имеет вид #"(/©) = . 2ао) + /(со2—ш%) а импульсная характеристика фильтра RC h(t) = ye~vt. Определить: 1) плотность распределения вероятностей pi(z) процесса z(t) на выходе двухстороннего квадратичного детектора огибающей; 2) математическое ожидание mz процесса z(t); 3) корреляционную функцию R2(r) и дисперсию Dz; 4) математическое ожидание ти процесса и (t) на выходе фильт- фильтра RC; 5) корреляционную функцию Ru(r) и дисперсию Du на выходе фильтра RC. Ответ: ехр — где 0* = aN03^o/2 — дисперсия процесса y(t) на выходе линейной системы; 2) тг = 2$1 = «yVo-^o; 3) /?г(т) = a8^;5rje-2«'", Dz = 4) mu = аЫ0Ж*0; 5) i?u(T)=_V^i^L(Ye-2o=iti V2 — 4a2 t 7+2a 12.45. На приемное устройство, схема которого изображена на рис. 12.44, воздействует случайный процесс x{t)=Ut)+T\{t)-\0{t), где %(t) — стационарный белый шум со спектральной плотностью 5g(co) = No/2; lo(t) — единичная функция; = A(t)cos laot + (f{t)] 13 Зак. 1203 385
— стационарный квазигармонический шум с нулевым математи- математическим ожиданием пц = 0 и корреляционной функцией Rn(r) = сх^ехр (—р | т |) cos со0т. Комплексная частотная характеристика линейной системы, как и в задаче 12.44, имеет вид Jt (/со) = м0 ¦¦ — . Определить плотность распределения вероятностей рх {z; t) процесса z(t), его математическое ожидание mz(t) и корреляционную функцию Rz(t, т) для t > 0. Ответ: Pi(z;t)=- (t) ехр - (t) mz{t) = 2al(t), RZ{U т) = Здесь r*y(t, т), rv(t, т) = Ry(t, t, t), 0, . M [(aePi'—pel oc — p -^a (e~aT +e~PT) e~(a+P)'] cos coo т, 0, 12.46. Используя условие и результаты задачи 12.45, опреде- определить математическое ожидание mu(t) процесса u(t) на выходе фильтра с импульсной характеристикой h(t) — ye~v'. Ответ: о-р , а*-р* / 2g g — P g + P\ \у—а—р у у—2g/ е-(а+Р) + _^ , 2а 7—2а 7—а—Р 12.47. На радиотехническое устройство, состоящее из интег- интегрирующей цепочки RC, двухполупериодного безынерционного квад- квадратичного элемента с характеристикой g = ац" и идеального фильт- фильтра нижних частот (ФНЧ) (рис. 12.45), воздействует стационарный 386 %¦ Й э 1 1—» (ft) C=L= f(t) О * Квадратичное устройство vtt) Рис. 12.45. Радиотехническая схема гауссовский белый шум %(t) с нулевым математическим ожиданием mg = 0 и спектральной плотностью Sj(u)) = Л^о, 0 ^ со <С сю. Определить ковариационную функцию /С^(т) и спектральную плотность 5j(co) процесса ? (?) на выходе нелинейного элемента. Ответ: со) = *В- Г2яб (со) (RCI [ V + 4+((otfC)a J 12.48. Используя условие и результаты задачи 12.47, опреде- определить математическое ожидание пи, и дисперсию Dv = <т* процесса v (t) на выходе фильтра нижних частот с импульсной характе- характеристикой / /л [ ае~а/ при о ^ i ^ ^> "W={п t \ 0 при других t. (Tv/mv и его предельное значение Вычислить отношение при Г-> оо. О 1 аР—2 .е-2аГ (ар + 2) 7" —1— (арJ-4 1 Um*L = J Г-wo mv ар + 2 12.49. Используя условие и результаты задачи 12.47, опреде- определить математическое ожидание mv и дисперсию Dv процесса v(/) на выходе фильтра нижних частот с импульсной характеристикой 1 при 0 при других t. Ответ: mv = aN0T 2р . 12.50. На рис. 12.46 приведена упрощенная схема двухка- нального коррелятора. На один из его входов поступает колеба- колебание 13» 387
if») \ X Рис. 12.46. Двухканальный коррелятор с фильтром нижних частот а на другой Ut) = s2(t) + n2{t). Здесь st(t) — гармонические колебания частоты соо с различными амплитудами и начальными фазами: SjXO = AiCosoiot, s2(t) = Л 2 cos(co0/ + 6); tii(t) — квазигармонические флуктуации: ' "i@ = *i@ cos со0^ + y^t) sin coo^, n2{t) = kx2{t)] cos ltJi(t) + ky2(t)\ sin Квадратурные составляющие xt(t) и yt(t) являются независимыми стационарными случайными процессами с нулевыми математи- математическими ожиданиями и дисперсиями Dt = а\ для хг{г), y^t) и D2 = crl для x2{t), y2(t). Коэффициент k определяет степень корре- лированности флуктуации n^t) и n2(t): Определить математическое ожидание т^ и дисперсию D,, процесса x\{t) на выходе фильтра нижних частот. Ответ: т„ = ArA2 cosG + 2ka\, Dn = 4k2o\ +оЦА1 +k2A*i+ 2kAlA2cosQ +A\ol +2o\ol). 12.51. Применительно к условию задачи 12.50 определить ха- характеристическую функцию вх (/и) процесса ц (t) на выходе фильтра нижних частот. Ответ [81]: X где 6 = /l2cos0 + с = in 0, a = I/a» — 2/to, p = l/a2. 12.52. Используя результат задачи 12.50, вычислить плотность распределения вероятностей рЛ'Ч) процесса r\(t) на выходе фильтра нижних частот для частного случая воздействия на коррелятор 388 идентичных колебаний й = 1 и а\ = 0. Ответ: = ?,(*), т. е. при Ах = А2 = Л, 0 = 0 12.53. Решить задачу 12.52 для случая отсутствия шума n2(f) на втором входе коррелятора. Ответ: где т„ = ЛХЛ2 cos 0, а? М^ 12.54. Решить задачу 12.52 для случая воздействия на корреля- коррелятор идентичных сигналов s^t) = s2(t) и некоррелированных про- процессов n^f) и n2(t) с равными дисперсиями, т. е. при Л, = Л2 = Л, a? =ol = o\ 0 = 0 й = 0 a? = o* = o2, 0 = 0, k = Ответ [81]: ( Pi(Л)= 1 4о2 2а2 Г]<0, 2аг Здесь а = Л2/2а2 — отношение сигнал/шум на входе коррелятора, ~,п-Х График плотности распределения вероятностей р^ц) приведен "на рис. 12.47. 12.55. На вход коррелятора, состоящего из линии задержки (ЛЗ) с временем задержки tsa4 = т, перемножителя и фильтра ниж- нижних частот (ФНЧ) (рис. 12.48), поступает стационарный случай- случайный процесс \{t) с нулевым математическим ожиданием mg = 0 и корреляционной функцией Rl(t) = ст|р|(т) cos соот. Фильтр нижних частот пропускает без искажений только низко- низкочастотные составляющие процесса на выходе перемножителя. Определить плотность распределения вероятностей р1(т]) про- процесса v\(t) на выходе коррелятора. Ответ [82]: И! 4a| exp — 2of[l-pE(T)] 389
^/(^ 0,2 0,1 0 Рис. 12.47. Плотность распределения вероятностей на выходе двухканального коррелятора 12.56. На один из входов двухканального коррелятора (рис. 12.49) поступает колебание а на другой Здесь Sj(^) = c V2 — прямоугольный радиоимпульс длительностью Т; tii(t) и n2(t) — независимые стационарные гауссовские белые шумы с нулевыми математическими ожиданиями и корреляционными функциями Rnt{x) = /?».W = (ЛУ2N(т), М{п,@ п,-(* + т)} = 0. xr(t) X J ФНЧ Ф1 hr(t) —*¦ XJW Ф1 xh Рис. 12.48. Коррелятор Рис. 12.49. Двухканальный корреля- коррелятор с интегратором В качестве входных фильтров (Ф) коррелятора используются колебательные контуры с импульсными характеристиками ht(t) = 2аге~а'' cos oo0*, t > 0. Определить математическое ожидание тф) процесса r\(t) на выходе коррелятора в момент времени t = Т. Ответ: тчG> где УЁГЁ1 2 F (c1( oj) = 1 —-A -е-*) +—A -е-«.) + 1 A— е- 13. ВЫБРОСЫ СЛУЧАЙНЫХ ПРОЦЕССОВ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Рассмотрим какую-либо реализацию непрерывного (дифференцируе- (дифференцируемого) случайного процесса |(<) длительностью Т (рис. 13.1). Такая реализа- реализация на конечном интервале Т имеет конечное число максимумов и минимумов с различными значениями Н, причем в момент времени tm реализация имеет абсолютный (наибольший) максимум Нт. с*.. Реализация | (t) может несколько раз пересекать фиксированный уро- уровень С снизу вверх (с положительной производной), причем в момент времени т0 впервые происходит такое пересечение (т. е. первый раз снизу достигается граница С). Когда случайный процесс |(<) пересекает уровень С снизу вверх, будем говорить, что имеет место положительный выброс. Если же уровень С пересекается сверху вниз, то можно говорить об отрицательном выбросе. Тогда можно сказать, что реализация |(<) длительностью Т имеет п положи- положительных (отрицательных) выбросов на уровне С, причем указанные на ри- рисунке величины т и 9 можно назвать соответственно длительностями положи- положительных и отрицательных выбросов. Часто величину 9 называют длитель- длительностью интервалов между выбросами. . Величины т, 9 и Н в пределах одной реализации могут принимать не- несколько значений (в зависимости от уровня С и интервала Т) и вместе с ве- величинами п, т0 и Нт изменяются случайным образом от одной реализации к другой. При статистическом описании этих"случайных величин можно интере- интересоваться их средними значениями, дисперсиями, плотностями вероятности 390 Рис. 13.1. Реализация стационарного случай- случайного процесса У
и другими характеристиками. В данной главе приведены окончательные фор- формулы в основном для средних значений, так как вычисление других ха- характеристик, как правило, связано с выполнением численного интегрирова- интегрирования, что выходит за пределы целевого назначения данной книги. Другие ха- характеристики рассматриваются тогда, когда они могут быть найдены без сложных математических вычислений. 1. Среднее число пересечений дифференцируемым случайным процессом ?(/) непрерывной кривой a(t) снизу вверх (рис. 13.2) на интервале (ta, ta + + Т) вычисляется по формуле Nt (г) = I dt j % (o p* [° @. a (o+i (oi 4 • A3.1) Здесь р2[?@> 1@] — совместная плотность вероятности для процесса \(t) и его производной | (t) = d% (t)/dt в один и тот же момент времени. Аналогично число пересечений процессом \{f) сверху вниз кривой a(t) равно U + т о N-(T)= | dt J. 4 @ P. [a @. в @+1@1 4- A3-2) ta — оо Пусть на интервале (t0, t0 + Т) заданы две непрерывные кривые а (<) и b (t), удовлетворяющие неравенству a (t) < b (t). Среднее число раз, когда продесс выйдет из границ а (/) < % (t) < b (t) на интервале (?0, t0 + Т), опре- определяется формулой A3-3) В том частном случае, когда рассматриваются пересечения процесса \(t) с горизонтальной прямой, т. е. a (t) = С = const, формулы A3.1) и! A3.2) принимают соответственно вид to+T оо jv+(c, г)= f ш\ 4@ Pi [с, 4 @] 4. <„ о v-(C, r) = - f л f 6@p.[C, E@]*- 4 -°o A3.4) A3.5) Применительно к стационарным в узком смысле процессам \{f) внутрен- внутренние интегралы в формулах A3.4) и A3.5) не зависят от времени и целесооб- целесообразно ввести среднее число пересечений в единицу времени. Для среднего числа пересечений в единицу времени стационарным случайным процессом tt(t) Рис. 13.2. Пересечения случайного процесса 1A) и детерминированной функ- функции a(t) 392 * |@ фиксированного уровня С снизу вверх и сверху вниз из A3.4) и A5.5) получаем простые формулы N+(C)=N+(C, 1)=J /г(С)=л/-(с, i) = - [ 4pi(c, 4L- [A3.6) A3.7) Для ряда стационарных процессов (например, гауссовских) значения процесса \{t) и его производной %(t) в совпадающие моменты времени оказы- оказываются статистически независимыми, т. е. Pz(C, |) = Pi(C) pE). ' A3.8) При выполнении этого условия формулы A3.6) и A3.7) еще более упроща- упрощаются: оо О N+ (С) =pi (С) J ip(l)d?, N? (С) = —р1(С) Г |рAL- A3.9) 0 —оо Применительно к гауссовскому стационарному дифференцируемому про- процессу 1 (t) с математическим ожиданием т и корреляционной функцией = oV(t) формулы A3.9) принимают вид j г ] iq 1 х 2я L 2 [ а — m V dx* т=о A3.10) A3.11) Для огибающей V(t) суммы гармонического колебания s(f) = AmX Xcos (too< + ф0) и гауссовского квазигармонического (узкополосного) слу- случайного процесса %{t), имеющего нулевое математическое ожидание и корре- корреляционную функцию получаем /?|(т) = с^р (т) cos соот, A3.12) 91 = , С>0. A3.13) Здесь /0(л) — функция Бесселя нулевого порядка от мнимого аргумента. При Ат — 0 формула A3.13) определяет число выбросов огибающей A(t) одного квазигармонического процесса ?(/): ( [(,3.14) 2. Среднее число максимумов дифференцируемого процесса \{t) на ин- интервале (t0, t0 + Т) определяется формулой U + T о W(n=~ f Л f "i@P2[0, |@]d'i. A3.15) где ра [!(<), !(<)] — совместная плотность вероятности для первой и второй производных процесса ? (t) в один и тот же момент времени. 393
Для среднего числа минимумов процесса справедлива формула t,+T «. ЛГт1п(Г)= J dt\ 1@л[0. 1@1^1- A3.16) (. о Среднее число максимумов на интервале (t0, t0 + Т), превышающих фик- фиксированный уровень С, равно t,+ T оо О >C, C)=- J dfjdfcj" I@PsU(O. 0,1@1 dl, A3.17) < С где р3 [I @. С @. 1 @1 — совместная плотность вероятности самого процес- процесса и его первых двух производных в одни и тот же момент времени. Применительно к стационарным процессам можно интересоваться сред-4 ним числом максимумов в единицу времени. При этом иэ формул A3.15) и A3.17) имеем о ) = - J '|p,@, l)d|. ' A3.18) оо О C, l) = -JdE J % р3 (|, 0, ?) d\. A3.19) С —оо Формулы A3.18) и A3.19) для гауссовского стационарного процесса 6@ с нулевым математическим ожиданием и корреляционной функцией A3.10) принимают соответственно вид ' где Ф (х) — интеграл вероятности, A3.21) A3.22) 3. Средняя длительность выброса стационарного эргодического процес- процесса | @ над фиксированным уровнем С вычисляется по формуле A3.23) A3.24) Применительно к гауссовскому стационарному процессу с математиче- математическим ожиданием m и корреляционной функцией A3.10) формулы A3.23) и A3.24) принимают вид Средний интервал между выбросами иа уровне С С 2я A3.26) 394 Рис. 13.3. Смещение момен- моментов срабатывания реле из- за шума /Л. Для огибающей A(t) квазнгармонического процесса \(f), имеющего корреляционную функцию A3.12), сраведливы следующие соотношения: т(С)= — A3.27) A3.28) Средняи длительность интервала между минимумом и следующим за ним соседним максимумом Тщ. а также между максимумом и последующим сосед- соседним минимумом 9ТО находятся по формулам оо О f И 1L- A3-29) Для гауссовского стационарного процесса 7 A3.30) 4. В радиотехнических приложениях рассмотрение выбросов часто свя- связывают с анализом действия полезных регулярных импульсных сигналов u(t) совместно с помехами \(t) на электронные реле и другие пороговые уст- устройства. В том случае, когда детерминированный полезный сигнал склады- складывается с «гладкими» помехами малой интенсивности, помехи вызывают слу- случайное дрожание моментов срабатывания и моментов окончания работы реле. Пусть в отсутствие помех реле срабатывает от полезного импульса и (f) в некоторый момент времени ^ и затем через промежуток времени т, т. е. в момент /а = ti + т, скачком возвращается в первоначальное состояние (рис. 13.3). При наличии слабых помех %(f) эти моменты времени будут сме- смещены на малые и случайные величины Дх н Д2, т. е. t[ = ^-|-Ai, t'2 =tt + Дв. В линейном приближении где s (tt) = батывания du(t) С. dt A3.31) — крутизна полезного импульса на уровне сра- Если стационарный шум g @ имеет нулевое математическое ожидание и корреляционную функцию R (т) = а2г(т), то дисперсии момента срабаты- срабатывания реле и момента окончания работы соответственно равны A3.32) 395
Из равенства т' = /2' — t[ = т -f" (Л2 — ^i) по известным находим дисперсию длительности импульса на выходе реле правилам A3.33) 2. ПРИМЕРЫ 13.1. Вычислить вероятность наличия в интервале (t, t + т) нечетного числа нулей гауссовского стационарного процесса \(t) с нулевым математическим ожиданием и заданной корреляционной функцией R(x) = 02г(т). Под нулями понимаются точки на оси времени, в которых | (t) = 0. Решение. Очевидно, что при выполнении неравенства l(t) x X l,(t + т) << 0 число нулей траектории процесса | (t) в интервале (t, t + т) нечетное (рис. 13.4). Обозначим вероятность нечетного числа нулей в интервале (t, t + т) через рн (т). Очевидно, что Нетрудно убедиться, что для стационарого гауссовского про- процесса с нулевым математическим ожиданием оба слагаемых в правой части этого равенства равны друг другу и = 2Р 0, 0] = 2 J О J J О —с» где р2A, 1Х) — двумерная плотность вероятности значений слу- случайного процесса, разделенных промежутком времени т. Подставив сюда выражение двумерной нормальной плотности вероятности E.23) и выполнив интегрирование, получим рн(т) = я arccos г(т), 0 ^ arccos r(x) < л или cos [ярн(тI = г(т). A3.34) 13.2. Определить число положительных выбросов на уровне С = За во временном интервале Т = 100 мкс гауссовского стацио- стационарного процесса | (t), имеющего математическое ожидание (т = 0) и спектральную плотность если /0 = соо/2я = 60 МГц и эффективная ширина спектра Д/э = = 2 МГц. Рис. 13.4. Нечетное чис- ло нулей в интервале (t ' ) 396 Решение. Обозначим среднее число интересующих нас выбросов через N+(C, T). Так как процесс l(t) стационарен, то N+(C, T) = = TN\{C). Для рассматриваемого примера среднее число положи- положительных выбросов в единицу времени определяется формулой A3.11) при m = 0 Пользуясь формулой F.15) можем написать оо 1 2яст2 S (со) е/ где 2я J — дисперсия процесса Следовательно, оо = г" @) = ^- Г со2 S (со) dco. Подставив сюда "выражение спектральной плотности и выполнив интегрирование, получим гЪ = —(со? + 2а). Поэтому По определению эффективной ширины спектра S (co)dco = = _!_ No f exp f 4nS0 .) L 0 находим а = яД/|. С учетом этого соотношения получаем оконча- окончательную расчетную формулу 13.3. Определить относительный уровень С/а, при котором огибающая A(t) квазигармонического процесса l{t\, имеющего постоянную и отличную от нуля спектральную плотность только 397
при частотах |/—/01^: Д/У2=0,5МГц, на интервале Г=1000мкс превышает уровень С в среднем один раз. Решение. Воспользовавшись формулой A3.14), можем написать N+ (С, Г) = W (С) = Г В данном примере -? ехр [ --L j^ р|(т) = sin лД/т/лД/т, ро" =— (л2/3) Д/2. Поэтому После подстановки отдельных значений приходим к трансцендент- трансцендентному уравнению относительно С/а 1 = приближенное решение которого дает С/а ~ 4. 13.4. Пусть задано функциональное преобразование у = f(x), которое является невырожденным, непрерывным, взаимно-однознач- взаимно-однозначным, и х — ф (у) — обратная функция. Требуется вычислить сред- среднее число выбросов случайного процесса ПБ(9]. A3.35) где |(?)— дифференцируемый случайный процесс с известной совместной плотностью вероятности р [| (t), % (t)]. Решение. По известным правилам пересчета плотностей вероят- вероятностей при функциональных преобразованиях случайных величин находим совместную плотность вероятности для т] (t) и r\ (t): По формуле A3.4) находим среднее число положительных выбросов процесса tj (t) в интервале (О, Т) на уровне Ял = /(#6): 1 N$ (Я„, T) = fdt J tjp (Я,, л) йц = = Г Л f лр(Ф(Яч), ф'(т1)^)ф'2(Ял)^. A3.36) о oJ Из сравнения этой формулы с формулой для среднего числа выбро- выбросов процесса \(t) Т оо п 398 следует, что Ni(Hn, Т) = Щ(Нъ Т). A3.37) Это равенство выражает очевидный факт — при взаимно-одно- взаимно-однозначном функциональном преобразовании A3.35) всегда сущест- существует однозначное соответствие между каждым пересечением процес- процессом l(t) уровня #| и каждым пересечением процессом г,(^) уровня 13.5. Найти среднее число максимумов в единицу времени над уровнем С = 2а гауссовского стационарного процесса с нормиро- нормированной корреляционной функцией г (г) — e~av', a = 4яД/?- Решение. Ответ дает формула A3.21). Так как г = —2а, г(о)=12ая, то v =1/2/3. Подставив отдельные величины в формулу A3.21), получим X [ф J ^ 0) 256Д/э. 13.6. Вычислить средний интервал времени между максимумом (минимумом) и соседним минимумом (максимумом) гауссовского стационарного процесса с нормированной корреляционной функ- функцией г(т) = р(т) cos <оот, р|@) = 1. Рассмотреть частный случай, когда р(т) = ехр (—лД/1т2), причем А/в < /о = «о/2л. Решение. Для рассматриваемой нормированной корреляционной функции находим г"й = —(со§ — Ро). /"о4) = coo — 6cd<JPo + Po°- Под- Подставив эти величины в формулу A3.30), получим '\ A3.38) Для р (т) = ехр (—лД/1т2) имеем р5 = —2лД/|, Поэтому 1 2я /о 1/2 13.7. На «безынерционное» электронное реле воздействует сум- сумма сигнала в виде импульса гауссовой формы 399
и дифференцируемого флуктуационного шума с малой дисперсией а2 = N0Af3. Определить возможную наименьшую нестабильность момента срабатывания реле (Тд,, обусловленную шумом. Решение. Первая из формул A3.22) показывает, что при задан- заданной дисперсии шума а2 наименьшая нестабильность момента срабатывания будет при пороге срабатывания реле, соответствую- соответствующем максимальной крутизне импульса. Из равенства u"(t) = 0 находим момент времени ^ = ти/|^5,6, при котором гауссовский импульс имеет максимальную крутизну: s &) = и' @ \t=u=A0 е-»-" — = 1,435 А.. Подставив это значение в первую формулу A3.32), находим наи- наименьшую нестабильность момента срабатывания реле 3. ЗАДАЧИ И ОТВЕТЫ 13.1. Найти вероятность рч(х) того, что гауссовский стационар- стационарный процесс \(t) с нулевым математическим ожиданием и корр- ляционной функцией R(x) = <J% (т) имеет в интервале (t, t + т) четное число нулей. Ответ: рч(г) = Р Ц (t) t(t + т) > 0} = 1 - я arccos г (т), О ^ arccos г(т) < я. 13.2. Получить приближенное выражение для вероятности нали- наличия в малом временном интервале (t, t + т) одного нуля гауссовг ского стационарного дифференцируемого случайного процесса с нулевым математическим ожиданием и корреляционной функцией V) () () __ Ответ: /?i(t) = vt, v = У—rj/л. Указание. В малом временном интервале практически возможно наличие лишь одного нуля дифференцируемого процесса l(t), т. е. в формуле A3.34) можно положить /?н(т) ~ п^т). По- Поскольку при малых т выполняется неравенство рг(т) < I, то учи- учитывая лишь первые два члена разложения косинуса в степенной ряд, имеем 1 — (V2) я2р?(т) ~ г (г). Разлагая затем в степенной ряд четную нормированную корреляционную функцию г(т) ~ са 1 + A/2) го'т2, получаем ответ. 13.3. Вычислить значение параметра v в ответе к задаче 13.2, когда гауссовский стационарный процесс |@ имеет спектральную плотность при |ю|^ Аю, при |ю|>Ао). Ответ: v = Асо/я|^3. 400 13.4. Получить выражение для вероятности наличия одного нуля в малом временном интервале (t, t + т) для процесса i\(t) — — s(t) + %(t), где случайный сигнал s (t) имеет вид s@ = ii@ cos <x>ot + 52@sin a0t. Случайные процессы l(t), J-^t) и |2@ являются гауссовскими, стационарными, независимыми с нулевыми математическими ожи- ожиданиями и корреляционными функциями R (т), Яг(г) и R2(r), при- причем Riir) = Яг(г). Ответ: @) +/? Указание. Случайный процесс т] (t) является гауссовским, стационарным, имеет нулевое математическое ожидание и корре- корреляционную функцию ЯпОО = Ri(x) Cos toffl + R(%)- 13.5. Решить задачу 13.4, когда |j и |2 являются не случайны- случайными процессами, а независимыми гауссовскими случайными вели- величинами с нулевыми математическими ожиданиями и одинаковой дисперсией а2. Рассмотреть частный случай |(/) == 0. Ответ: при?@=0. 13.6. Получить выражение условной вероятности рн(т) нали- наличия нечетного числа нулей внутри интервала (t, t -\- т) для гауссов- ского стационарного дифференцируемого случайного- процесса | (/) с нулевым математическим ожиданием и корреляционной функци- функцией R (т) = а2г(т). Предполагается, что в начале интервала имеется нуль, т. е. l(t) — 0. Ответ: cosпрп (т) = — г'(г)/У—г'о | [1—г2(т)]. Указание. Очевидно, что рн(т) = Р{|@ %(t + т) < < 0| I (t) = 0}. Условная плотность вероятности р [| (t), | (t + + т) | l,(t) — 0] является нормальной с нулевым математическим ожиданием и нормированной корреляционной функцией г(т) = Ум {12 Поэтому применима формула A3.34), только теперь в нее вместо г (г) нужно подставить г(х). Вычислив г(т), получим ответ. 13.7. Найти среднее число положительных выбросов в единицу времени на уровне С < Лл для гармонического колебания s(t) = i4mcos (o>0t ¦+- ф), начальная фаза которого случайна и распределена равномерно в интервале (—я, я). Ответ: Nf(C) = /0 = ао/2п, С< Ат. 401
Указание. Так как производная по времени от процесса s(t) — — a0Amsin (coo/ + ф) = ±соо|^ЛД — s2(t), то совместная плотность вероятности определяется формулой + б [s + «о УЖ11^) }?=Pi (s) р [s), где S (х) — дельта-функция. В данном случае условие независимости A3.8) не выполняется и поэтому следует применять формулу A3.6). 13.8. Найти на интервале Т дисперсию числа нулей а%(Т) гармонического колебания s(t) = Am sin Bnfot -f- ф), у которого случайная начальная фаза распределена равномерно в интервале {—я/я). ' Ответ [83]: аЩТ) = Bf0T - Щ0Т\) A - 2/0Г + [2/0Л), где [2/0Т] — целая часть числа 2/07\ 13.9. Получить в явном виде выражение Nt (С) для гауссовских стационарных процессов с нулевыми математическими ожиданиями, одинаковыми дисперсиями и тремя нормированными корреляцион- корреляционными функциями 3 W sin(AMT/2) Дшт/2 Сравнить полученные результаты при одном и том же значении уровня С и одинаковой эффективной ширине спектров А/э. Ответ: = 0,38894 Д/Эехр[—i-(-^-) NU (С) - ^== А/э ехр [ —L (-2-J] = 0,28867А/, х Nt.i(Q>Ni2(C)>Nt.3(C). 13.10. Даны два гауссовских стационарных узкополосных процесса с корреляционными функциями #! (т) = а2 е-«' ч fcos ш0 т + — sin ш01 т |), = а2е~а'х i (cos со0 т — sin ©о |тI) • 402 Какой из двух процессов является дифференцируемым? Вычислить для него среднее число положительных выбросов Nf(C). Ответ: первый процесс дифференцируем, второй — нет; 13.11. Найти среднее значение полного числа пересечений Л^(С) уровня С для суммы т) (t) = ij(/) + %2(t), где i^^) и |2(*) — два гауссовских независимых стационарных дифференцируемых про- процесса, имеющих нулевые математические ожидания и корреляцион- корреляционные функции R-^x) — (Tfr^t), R2(r) = o\r2{x). Ответ: | 13.12. Решить задачу 13.11 для случая, когда Ответ: о|+о} 2 (oj +oj). 13.13. В задаче 13.11 найти число «положительных» нулей Л/+@) процесса т](?), когда cos (о1т, ^2(т) = fff Р2М cos со2т, Pi(O)=P,(O) = l. Ответ: Щ0)=- о) + ст2(со1 — Рао) 1 '2 ;; , 1+СТ2 J x=o 13.14. Найти на интервале (^0, t0 + T) среднее число превы- превышений уровня С суммой гауссовского стационарного процесса ?(?) и прямой a(t) = а0 + axt, где а0 и ах — постоянные коэффи- коэффициенты. Процесс i (t) имеет нулевое математическое ожидание и дважды дифференцируемую корреляционную функцию J?,(t) = V() () Ответ: а, 2я = oV-rl X 403
Указание: Предварительно нужно найти совместную плот- плотность вероятностиp2(r\ (t), r\(t)) для гауссовского нестационарного процесса r\(t) = а0 + axt + ?(/)¦ и его производной r\(t) = at + + t (t), а затем следует воспользоваться формулой A3.4). 13.15. Вычислить среднее число нулей на интервале @, тТ0), где m — целое положительное число, для периодически нестацио- нестационарного гауссовского процесса r\(t) = l(t) cos соо?, Т = 2я/со0. Здесь %(t) — гауссовский стационарный процесс с нулевым сред- средним значением и корреляционной функцией R(r) = <jV(t). Ответ: N (О, тТ0) = (соо + \Г= 13.16. Найти среднее число нулей в единицу времени процес- процесса т] (f)= ii@ ?2@> гДе Ы*) и IS) — Два гауссовских стаци- стационарных независимых, дифференцируемых процесса с нулевыми математическими ожиданиями и корреляционными функциями = ог|г2(т). /ft = *Г|(т) d2 Указание: Поскольку независимые процессы lt(t) и ?2(?) дифференцируемы, то их реализации представляют собой плавно изменяющиеся функции времени. Вероятность совпадения нулей двух таких функций практически равна нулю. Поэтому число нулей произведения двух функций равно сумме чисел нулей каждой из перемножаемых функций. 13.17. Вычислить среднее число выбросов Nt(C) квадрата ста" ционарного случайного процесса ?(/), имеющего нулевое матема- математическое ожидание и корреляционную функцию R (т) = 02г(т). —^Lj , C>0. Ответ: 13.18. Найти среднее число выбросов N\(C) случайного про- процесса т] (t) = Vl2(t) = 11 (t) |, если гауссовский процесс ? (t) имеет корреляционную функцию R (т) = <т2г(т). Ответ: Nt (С) = — я С>0. 13.19. Вычислить среднее число выбросов на уровне С^О логарифмически нормального процесса r\(t), заданного выражением l(t) = \nt)(t). Здесь l(t) — гауссовский стационарный процесс с нулевым математическим ожиданием и корреляционной функцией ад = "" Ответ: «i- Рис. 13.5. Воздействие суммы сиг- сигнала и шума на согласованный фильтр s(t)+n(t) Согласованный фильтр X(ja) 13.20. Получить выражение Nt(C) для стационарного процес- процесса т] (t) = Vl\(t) + Ш0> гДе Ы*) и ?2 (*) — два независимых гаус- гауссовских стационарных процесса с нулевыми математическими ожи- ожиданиями и одинаковыми корреляционными функциями ^(т) = = /?а(т) = <tV(t). -f )ехр[-^-(-^-)] , С>0. Ответ: Ni(C)= 13.21. Имеется линейный фильтр (рис. 13.5), согласованный с детерминированным импульсом гауссовской формы 0<т0<7, Г»тИ) где т0 — момент времени, соответствующий середине импульса; ти — длительность импульса на уровне 0,5; Т — интервал наблю- наблюдения. Частотная характеристика согласованного фильтра имеет вид ЯТ(/со) = Лоти1/_1^ехр[- V 2,8 L где t0 — момент времени, соответствующий наибольшему значению выходного сигнала sBmax = sB(t0) = Е = Л|ти]/л/5,6. Найти среднее число положительных выбросов N+(C, T) вы- выходного шума ? (t) на уровне С, равном наибольшему значению выходного сигнала. Ответ: N+(C,T) = — jexpl —— 13.22. Получить явные выражения Nt(C) для гауссовских ста- стационарных узкополосных процессов с нулевыми математическими ожиданиями, одинаковыми дисперсиями и тремя разными норми- нормированными корреляционными функциями Мт) = A +а|т|)е—а 'т ' cosco0t, r2(T) = e-aT2cosco0T, М. sin (Ают/2) т) = s — cos соо т. ' Ают/2 ° Сравнить полученные результаты при одном и том же значении уровня С и одинаковой эффективной ширине спектров A/3. Ответ: 404 N^iC) ~ fo[l + B/л)(А/3//оJ]ехр (-С2/2<тг), Nt,2(C) ~ /0[1 +A/4я) (ЛШ21 ехр (-С2/2сг2), 405 f0 = соо/2я,
Г,з (С) ~ /о [1 + A/24) (А//Ш exp (-C2/2a2), Af = Л©/2я, 13.23. Получить формулу для среднего числа положительных выбросов в единицу времени на уровне С гауссовского стационар- стационарного процесса с корреляционной функцией Д(т) - a2p(T)cos[co0T+YW]. р@) = 1- Ответ: dx 13.24. Определить среднее число выбросов N+(C, T) огибающей A(t) квазигармонического шума, спектральная плотность которого постоянна в интервале частот | / — /01 ^ А//2 и равна нулю вне этого интервала. Рассмотреть случай, когда Т = 1000 мкс, А/ = 1 Мгц и С = За. Ответ: (~g-), C>0, N+Co, Ю-3) ~ 24 с. 13.25. На вход системы, представленной на рис. 13.6, воздей- воздействует белый шум n(t), односторонняя спектральная плотность которого Sn(f) = No, / ^ 0. Определить число срабатываний «бе- «безынерционного» электронного реле от шумовых выбросов при по- порогах срабатывания Сг = 2а и С2 = За за время Т = 1000 мкс, если квадрат частотной характеристики усилителя промежуточной частоты (УПЧ) имеет вид X\f) = Хо exp [ -2,8 ( А/ « /о- где /0 — резонансная частота; А/ — полоса пропускания УПЧ на уровне 0,5. Вычисления выполнить для А/ = 2 МГц. Ответ: N+ (С, Т) = TNi (С) = ГА/Э -? ехр (- ^-), Л/. = А/ Л/+Bа, Ю-3) ~ 540 с-1, Л/+(За, Ю) ~ 66 с-1. n(t) УПЧ Линейный де/пек/пор sffu A(t) реле h Рис. 13.6. Простейшая схема амплитудного радиоприемника с электронным Указание. На выходе линейного детектора огибающей воспроизводится огибающая A (t) квазигармонического шума g (t), воздействующего на вход детектора. 13.26. Пусть на схему рис. 13.6 воздействует сумма гармони- гармонического сигнала s(t) = Amcos((u0t + q>0) и квазигармонического шума Ъ, (t) с функцией корреляции Rl(r) = a2exp (—яД/1т2)со5со0т. Найти среднее число срабатываний реле за фиксированное время Т при пороге срабатывания реле С — За, если отношение сигнал/шум а = A Jo = 2. Ответ: Указание: На выходе линейного - детектора огибающей воспроизводится огибающая V(t) суммы сигнала и шума. 13.27. Решить задачу 13.26 для случая, когда корреляционная функция шума ?(f) имеет вид г» / \ 9 sin лД/т #|(т) = а Т1— cos мо Т, nafx и сравнить ответы. Ответ: ~0,22ГА/. 13.28. Вычислить средние числа максимумов в единицу времени NimtLX гауссовских стационарных процессов с нормированными кор- реляционными функциями г2(т) = е~ат*, гз(т) = sinnA/r/nAfr. Сравнить полученные результаты при одинаковой эффективной ши- ширине спектров. Ответ: N ,.2 та* = ^-Kto = л[-^- Л/, = 1,382А/9, JVi.3 max =yVt А/ = 406 407
13.29. Для процессов, указанных в задаче 13.28, вычислить средний временной интервал между максимумом (минимумом) и со- соседним минимумом (максимумом). Ответ: 6T 2ДД -J_,/jL = . 2А/а |/ 6 0,362 Д/э t»m = А/ 1,292 ^- .. ., 13.30. Найти среднее число максимумов в единицу времени АА,т'ах гауссовского стационарного процесса с нормированной корреля- корреляционной функцией г(%) = p(t)cosco0t, p@) = 1. Ответ: vimax —/о ра/щ . _ а>0 > /о ~ • 2 13.31. Решить задачу 13.30 при нормированной корреляционной функции , . sin яД/т считая А/ С /о = (оо/2я. Ответ: ^lmax—/о 13.32. Решить задачу 13.30 при нормированной корреляционной функции г (т) = ехр (— яА/1т2) cos со0т, А/э < /0 = соо/2я. ¦ Ответ: -Г 13.33. Выразить через эффективную ширину спектра А/9 сред- среднее время между двумя соседними положительными выбросами на 408 уровне С для гауссовских стационарных процессов с нулевыми математическими ожиданиями и нормированными корреляцион- корреляционными функциями /"iW = 0 + «|т|) е-°'ч, г2(т) = е-ат2, г3(т) = sin яА/т/яА/т. Сопоставить полученные ответы с результатами решения задачи 13.9. Ответ: 4A/a 2 А/а 13.34. Для гауссовских процессов, указанных в задаче 13.33, |. найти средний интервал времени между соседними нулями. Ответ: т,@) 2 л 8А/э 0,3927 А/э ' ' ^ /п\ — Чч - т2@) 2 Уз __ А/ V 2 1,732 А/ 1 2А/э • 0,6267 А/э 13.35. Определить средний интервал между положительными выбросами на уровне С гауссовского стационарного процесса с ну- :Щ1 левым математическим ожиданием и нормированной корреляцион- Л^ ной функцией § г(х) = p(t)cosco0t, о)§ > — р5, р@) = 1. 0/яб?/л: т L ~ 13.36. Пользуясь ответом к задаче 13.35, определить средний интервал между соседними нулями процессов с корреляционными функциями г2(т) = ехр( — яА/1 т2) cos соот, г3(т) = Si™ff°% cos шот. Ответ: 2/0 L An 2/„ 1 24 409
13.37. Определить средний интервал между соседними положи- положительными и отрицательными выбросами огибающей A(t) на неко- некотором уровне О 0 для гауссовских стационарных процессов с нор- нормированными корреляционными функциями, указанными в зада- задаче 13.36. Ответ: С ' 13.38. Найти наибольшую точность определения положения т0 центра видеоимпульса гауссовской формы (рис. 13.7) где ти— известная длительность импульса на уровне 0,5, в слу- случаях, когда: 1) для определения т0 используется пороговое уст- устройство, реагирующее только на фронт импульса; 2) момент т0 определяется пороговым устройством, реагирующим как на^фронт, так и на срез импульса. Указанный импульс принимается на фоне аддитивного флукту- ационного шума малой интенсивности с корреляционной функцией Ответ: ) =<т2 ехр ( -JL 4 , А/э ~ -L Указание. Рассматриваемый гауссовский видеоимпульс имеет максимальную крутизну фронта и среза и'тах (tir2) ~ Рис. 13.7. Видеоимпульс гауссовской формы 410 i i — ± Ло|/,6 е-°-5/ти в точках /li2 = т0 ± %пГ]^5,6, отстоящих друг от друга на т = г„/}^1,4:. Пороговые устройства должны иметь порог срабатывания С = Лое~°!5. Центр импульса во втором слу- случае определяется равенством т0 = (^+ *аУ2. 13.39. Определить временную нестабильность положения какого- либо нуля суммы гармонического колебания s(<) = 4mcos((o0?-f q>0) и плавно изменяющегося флуктуационного шума с нулевым мате- математическим ожиданием и малой дисперсией ст2 <^ Am- Ответ: а0 = а/а0Ат. 13.40. Найти плотность вероятности временного интервала т между соседними нулями суммы гармонического колебания s (t)= = Ат cos (юо< + ф0) и гауссовского стационарного шума (малой интенсивности) с нулевым математическим ожиданием и дифферен- дифференцируемой корреляционной функцией R (т) = о2г (т). Ответ: аа>„ ехр — л2 а2 (Юр т/я — IJ РоМ = Указание. Как следует из A3.31), в линейном приближе- приближении плотность вероятности интервала времени между соседними ну- нулями будет нормальной. При этом среднее значение интервала, оче- очевидно, равно я/ю0, а для вычисления дисперсии нужно восполь- воспользоваться формулой A3.33).
Раздел IV ТЕОРИЯ ПОМЕХОУСТОЙЧИВОСТИ 14. ФИЛЬТРАЦИЯ СИГНАЛОВ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ В общем виде задачу оптимальной фильтрации сигналов из шумов мож- можно сформулировать следующим образом. Пусть колебание x(t), принятое на некотором интервале времени, является функцией от сигнала sit, A.(i)] и шу- шума n(t): x(t) = F{s[t, l(t)], n(t)}. A4.1) Сигнал sit, X(t)] в общем случае может зависеть не от одного, а от несколь- нескольких параметров Xj (t), причем либо сам сигнал s[t, X(t)), либо его параметр % (t) являются случайными процессами. Вид функции F{s, я}, т. е. способ комбинирования сигнала и шума, и некоторые статистические характеристи- характеристики сигнала и шума предполагаются априорно известными. Используя эти априорные данные, необходимо определить устройство (рис. 14.1), решаю- решающее оптимальным образом, какая реализация самого сигнала s[t, h(t)] или его параметра k(t) содержится в принятом колебании A4.1). Из-за наличия шума n(t) и случайного характера сигнала sit, %(t)] оценка реализации сигнала sit, b(t)] или его параметра Я, (t) не будет совпа- совпадать с истинной реализацией, т. е. будут иметь место ошибки фильтрации. Для количественной характеристики качества фильтрации можно использо- использовать различные критерии [42]. Наиболее часто в задачах фильтрации ис- используются критерий минимума среднего квадрата ошибки, критерий мак- максимального отношения сигнал/шум и критерий максимума апостериорной вероятности. В зависимости от дополнительных предположений о характере сигнала и шума сформулированная задача решается методами линейной или нелиней- нелинейной фильтрации. В дальнейшем мы ограничимся рассмотреииеми лишь задач линейной фильтрации. Кроме того, будем предполагать, что сигнал и шум взаимодействуют аддитивно, т. е. = sit, n(t). A4.1а) Оптимальная линейная фильтрация по критерию минимума среднего квадрата ошибки [84—89]. Предположим, что входящие в A4.1а) сигнал sit, X(f)] = s(t) и шум п(/) представляют собой-стационарные нормальные гауссовские случайные процессы с известными ковариационными функциями: 7Cs(t) = M{s(t), s(t + г)}, Кп(т) = {n(t) n(t + т)}, Ksn(t) = M{s(t)n(t + т)}. Требуется определить систему, которая из принимаемой смеси x(t) = s(t) + n(t) A4.16) 412 С минимальной средней квадратйческой ошибкой выделяет не параметр Mt), а сам полезный сигнал s(t). Таким образом, [искомая оптимальная система должна минимизировать величину = M{[s(t) - s(t + A)]2}. A4.2) В A4.2) для общности введен временной сдвиг Д. При Д > 0 оценка s (t) на выходе системы должна предсказывать (прогнозировать) значение вход- входного сигнала s(t) на время Д, при Д = 0 сформулированная задача сводится к выделению (сглаживанию) сигнала s(t) из колебания x(t). Строгое математическое решение сформулированной задачи для слу- случая полубесконечиого интервала наблюдения (— оо, t) было дано А. Н. Кол- Колмогоровым [84] и Н. Винером [85]. Ими, в частности, было показано, что оп- оптимальное по критерию минимума среднего квадрата ошибки устройство в данном случае относится к классу линейных фильтров с постоянными пара- параметрами. Основные результаты теории Колмогорова—Винера заключаются в следующем. Предположим, что на вход физически реализуемой линейной системы (рис. 14.2) с импульсной характеристикой (h(t), t>0, @, t<0. A4.3) воздействует стационарный случайный процесс x(t). При этом стационарный случайный процесс y(t) = s(t) на ее выходе будет определяться соотношением = slt) = f h(x)x(t—x)dx . A4.4) Подставляя A4.4) в A4.2), получаем следующее выражение для среднего квадрата ошибки фильтрации: h(T)x(t — T)dr — которое после несложных преобразований приводится к виду ОО ОО j" J Здесь Ksx(r) = M{s(t)x(t + т)} — взаимная ковариационная функция процессов s(t) и x(t)\ Kx(r) = M{x(t)x(t + г)} — ковариационная функция случайного процесса x(t). >],n(t)} A4.5) A4.6) A4.7) Оптимальный \[t,m)] филыпг x(t)=s(thn(t> hoW, Рис. 14.1. Оптимальный фильтр . Рис. 14.2. Линейный фильтр 413
Чтобы определить импульсную характеристику ho{t) оптимального фильтра, минимизирующего средний квадрат ошибки A4.5), воспользуемся известным методом вариационного исчисления. Пусть Л@ = МО + №V), A4.8) где ц — параметр, ие зависящий от t; g(t) — произвольная функция. При этом условие минимума среднего квадрата ошибки записывается в следующем виде: = 0. A4.9) После подстановки A4.8) в A4.5) условие A4.9) принимает вид v)dv—Ksx(x + Д) 0 Поскольку это соотношение должно выполняться при произвольной функции g(t), то отсюда следует, что импульсная характеристика ho(t) оптимального фильтра должна удовлетворять интегральному уравнению Фредгольма пер- первого рода J ho(v)Kx(t—v)dv^Ksx(r+A), т > 0. о A4.10) Это интегральное уравнение является основным уравнением теории линей- линейной фильтрации и называется уравнением Винера—Хопфа [86]. Таким образом, задача нахождения оптимального сглаживающего (Д = 0) или прогиозярующего (Д > 0) физически реализуемого фильтра сво- сводится к решению интегрального уравнения A4.10). Решение этого уравнения в общем случае встречает известные трудности, обусловленные, главным об- образом, требованием физической реализуемости оптимального фильтра. Одна- Однако в частном, но весьма важном с практической точки зрения случае дробно- рациональной спектральной плотности Sx(a) входного процесса x(t) из A4.10) можно получить следующее выражение для комплексной частотной характеристики йГ0 (/ш) оптимального фильтра, минимизирующего средний квадрат ошибки: Здесь (Q) F* (;Q) = |F(/«)P=Sx(«b), A4.12) При этом минимальный средний квадрат ошибки фильтрации <х> emin="^- f [58(ш)-№(/шI25я(ш)]^, A4.13) где ОО J (И-14) 4 14 Для частного случая сглаживания аддитивной смеси взаимно независи- независимых стационарных случайного процесса s(t) и белого шума n(t) с нулевым математическим ожиданием тп = 0 и корреляционной функцией Rn(r) = (ЛГо/2)8(т) формула A4.11) упрощаетси [89] и приводится к виду: Индекс «+» у выражения в квадратных скобках означает, что если это вы- выражение разложить на простые дроби, то в разложении должны быть остав- оставлены только те из них, которые соответствуют полюсам, расположенным в верхней полуплоскости. Все простые дроби функции F(m) = Ss(a) + Nq/2, соответствующие полюсам в нижней полуплоскости, а также целая часть F((o) должны быть отброшены. Минимальный средний квадрат ошибки для рассматриваемого сл.учая может быть вычислен по формуле [89] Практические вычисления по формуле A4.11) оказываются довольно Громоздкими. Значительное упрощение получается, если ие накладывать на оптимальный фильтр требования физической реализуемости A4.3), т. е. по- полагать в A4.4) и последующих.формулах нижний предел равным — оо. При этом вместо уравнения A4.10) получаем интегральное уравнение вида h0 (v) Kx(x - v)dv = K A4.15) решение которого приводит к следующему выражению для комплексной ча- частотной характеристики физически нереализуемого оптимального фильтра: A4.16) Минимальный средний квадрат ошибки и в этом случае вычисляется по фор- формуле A4.13). Для частного случая статистически независимых сигнала s(t) и шума n(t) формула A4.16) приводится к виду Sg(a>) SS(Q))+Sn(fi)) A4.16а) Хотя соотношения A4.16) и A4.16а) соответствуют физически нереализуе- нереализуемым оптимальным фильтрам, они весьма полезны, так как любой физически реализуемый фильтр ие может дать меньшей средней квадратической ошибки, чем фильтры, определяемые A4.16) и A4.16а). Объясняется это тем, что нало- наложение на фильтр условия физической реализуемости A4.3) сужает воз- возможности выбора оптимальной характеристики фильтра и по этой причине может привести лишь к ухудшению конечного результата. Оптимальная линейная фильтрация по критерию максимума отношения сигнал/шум [27, 42, 82, 89—91]. Предположим, что на вход линейного филь- фильтра с комплексной частотной характеристикой Л"(/ш) поступает аддитивная смесь *@ = s@+«@. A4-17) . 415
где n(t) — стационарный случайный процесс со спектральной плотностью Sn(w); s(t) — статистически независимый от n(t) полезный сигнал, фор- форма которого (амплитудный спектр S(ja>)) заранее известна. При этих усло- условиях процесс на выходе фильтра г/@ = «вых@+Ивых@. A4.18) где sBbix@ и пВЫх@ — результаты преобразования сигнала и помехи ли- линейным фильтром. Сигнальная составляющая определяется соотношением tit) 00 =— J A4.19) а дисперсия выходного шума пВЫх @ вычисляется по формуле = о* оо =— с 2я J Введем в рассмотрение отношение a = lsBbIX(r)|/aBbIX, A4.20) A4.21) представляющее собой отношение мгновенного значения сигнала на выходе фильтра в некоторый момент времени t = Т к среднему квадратическому зна- значению выходного шума. В соответствии с A4.19) и A4.20) это отношение равно 1 ОО Г S(/o ele>Tdw -^ j SB(a))|Jr(/a))|»4D L —оо J 1/2 A4.22) Линейный фильтр, максимизирующий отношение A4.22), называется фильтром, оптимальным по критерию максимума отношения сигнал/шум. Можно показать [89, 90], что комплексная частотная характеристика такого фильтра е-/иГ, A4.23) где С — некоторая постоянная; S*(ja>) — функция, комплексно-сопряжен- комплексно-сопряженная с амплитудным спектром 5(/ю) входного сигнала s(t). Если входящий в A4.17) случайный процесс n(t) представляет собой ста- стационарный гауссовский белый шум со спектральной плотностью Sn(w) = = Nj2, — оо < ю < оо, то формула A4.23) приводится к виду ^'o(/Q>)=/cS*(/Q>)e-/tor. A4.24) Таким образом, в случае приема аддитивной смеси сигнала и белого шума комплексная частотная характеристика фильтра, оптимального по критерию максимального отношения сигнал/шум, полностью определяется амплитуд- амплитудным спектром входного сигнала. В соответствии с этим оптимальные фильтры с комплексными частотными характеристиками A4.24) называют согласован- согласованными. 416 Определим импульсную характеристику согласованного фильтра: оо W0 = J_ f ^0(/ft))e'aidQ). (M.25) 2я J —оо После подстановки A4.24) в A4.25) получаем МО = «(Г - t), A4-26) где к _ некоторая постоянная величина, имеющая смысл коэффициента усиления. 2. ПРИМЕРЫ 14.1. Имеется аддитивная смесь x(t) = s(t) + n(t), где n(t)— стационарный нормальный белый шум со спектральной плотностью Sn(co) = NJ2, - оо < со < оо; A4.27) s(t) статистически независимый от п (t) стационарный случай- случайный процесс со спектральной плотностью Ss(co) = 1/A + со2), — оо < со < оо. Определить комплексную частотную характеристику ЯГ0(/ю) фи- физически реализуемого прогнозирующего фильтра, минимизирую- минимизирующего средний квадрат ошибки E* = M{ly(t)-s(t + A)]2}. Здесь y(t) — случайный процесс на выходе фильтра. Решение. В соответствии с A4.11) где F(j(a)F *(/со) = |^(/со)|2 = Sx(a). Поскольку по условию задачи s(t) и n(t) статистически незави- независимы, то Ss,(co) = Ss(co) = 1/A + со2), S,(co) = Ss(co) + Sn(co) = {No + 2 + tfoco2O[2 A + со2)]. Отсюда следует, что = У2 A+/Ш) V2 A-/ю) Таким образом, искомая комплексная частотная характеристика определяется соотношением 14 Зак. 12 03 417
где /м- Учитывая, что [17] (P-f /*)~2(l(Y —jx)~2ve- — YP), p<0, где №я?<7(г) — функция Уиттекера, находим iJ^(T + A)) = 2it X У^о+г+Ул'о xexp[—(т + А)].. После подстановки /(т) в Ж0(]'(а) и ряда несложных преобра- преобразований окончательно получаем «".(/©) = #70 + /t где 2 —Д Таким образом, искомый прогнозирующий фильтр может быть представлен в виде последовательного соединения идеального (не- искажающего) усилителя с коэффициентом усиления СКй и инте- интегрирующей цепочки RC с постоянной времени RC = То (рис. 14.3). 14.2. На вход фильтра воздействует аддитивная смесь х (t) = = s(t) + n(t), где n(t) — стационарный нормальный белый шум со спектральной плотностью A4.27); s(t) — статистически незави- независимый от n(t) стационарный случайный процесс с нулевым матема- математическим ожиданием ms = 0 и корреляционной функцией Rs (т) = oJe-wicoseooT. Определить комплексную частотную характеристику №0(j(o) физически реализуемого сглаживающего линейного фильтра и вычи- вычислить соответствующий ему минимальный средний квадрат ошибки 418 xlt) Хо R x(t) X Рис. 14.3. Прогнозирующий фильтр Рис. 14.4. Интегрирующая цепочка RC Решение: В соответствии с A4.16а) искомая комплексная ча- частотная характеристика имеет вид а спектральная плотность процесса s(t) при ms — О Подставляя Ss(©) в ^0(/«). получаем 2аа| 2аа| Значение среднего квадрата ошибки находим из A4.13): е -emin-os у 14.3. На вход /?С-фильтра (рис. 14.4) поступает аддитивная смесь x(t) = s(t) + n(t), где s(t) — стационарный гауссовский случайный процесс со спектральной плотностью Ss((o) = 2ao2/(a2 + со2), — оо оо; n(t) — статистически независимый от s(t) стационарный гауссов- гауссовский белый шум, для которого Sn(©) = NJ2, — оо < © < оо. Найти оптимальное значение постоянной времени Т = RC, ми- минимизирующее средний квадрат ошибки где y(t) — процесс на выходе фильтра, и определить значение ешш- Решение. Обозначим импульсную характеристику #С-фильтра через h(t). Тогда разность ?,(t) = y(t) — s(t) можно представить в виде = 5 h(t-x)x(x)dx— 14* — оо 419
t t = j [h(t-x)—6(t-x)]s(x)dx = — oo — oo По условию задачи процессы s(t) и n(t) взаимно не коррели- рованы, вследствие чего взаимно не коррелированы и процессы si@ и "i@- Таким образом, спектральная плотность процесса Z,(t) S6(©) = Ss,(co) + Sn,(©), где S.,(ffl) = S,(<o) I ^,(/co) |2, Sn,(<D) = Sn( — спектральные плотности процессов sx{t) и rax@, /co) = \ h(u)e — oo oo Xl{j<a)= J [h(u)—d(u)]e-ia"du. — OO Таким образом, дисперсия процесса l(t) oo of = e2 = — Г S'g(©)d© = По условию задачи, #•(/«>) = P/(P + /«)- P = Следовательно, 2aa| со2 ¦+¦ Для нахождения оптимального значения р = \1Т составим про- про2 § изводную от е2 по 2 420 2aaf Отсюда следует, что при //т<4а|/а оптимальное значение постоян- постоянной времени #С-фильтра 'л — = ¦ Ро 2а,Уа—а а соответствующий ему минимальный средний квадрат ошибки сгла- сглаживания Если же Л^о ^ 2Л2/а2, то оптимальное значение То — 1/ро->- °°. а средний квадрат ошибки 14.4. При тех же условиях, что и в примере 14.3, найти опти- оптимальное значение постоянной времени Т = RC, минимизирующее средний квадрат ошибки Решение. В данном примере разность = y{t) - s(t + A) = Sl(t) + ni(t), где Si@ = | Wt — г) — 8(t + A — x))s(x)dx, ni(t) = J /i(< — x)n(T)dr. Поскольку процессы s^) и ^(i) взаимно не коррелированы, спек- спектральная плотность процесса Е( где SSl(w) = Учитывая, что S|(co) = SSl(co) + Sni(co), 2, Snt(<D) = Sn( x{j<s>)= J h1(u)e-l<*udu= находим = S8(co 421
Отсюда дисперсия процесса |(<) /©)-e/«* |2 + S» _L Г Г 2 2я J [_ a» (о2 + ¦ • Ло = = —Г4а5гA —е-«д) 2 [ V а 2 J Анализируя зависимость е2 от p, нетрудно установить, что при А ^ (In 2)/а наименьшее значение среднего квадрата ошибки имеет место при р0 = 1/Т0 = 1ARC = 0 и равно rni = Of- Если А < (In 2)/a и. то наименьшее значение е2 также имеет место при ро = 0. В слу- случае А < (In 2)/a и 1/2 —а>0 минимальное значение 8min обеспечивается при 14.5. На вход линейного фильтра воздействует аддитивная смесь x(t) = s(t) + n(t), где n(t) — стационарный гауссовский белый шум; s@ = o, t<T, — статистически независимый от шума п (t) экспоненциальный ви- видеоимпульс (рис. 14.5). s(t) L Рис. 14.5. Экспоненциальный видео- Т t импульс 422 Определить комплексную частотную характеристику Л фильтра, максимизирующего отношение сигнал/шум на выходе. Решение. Вычислим спектр сигнала s (t): оо Т S(j(o)= Г s(t)e-'atdt= Ae-aT Г J J a —/ш Используя соотношение A4.24), находим искомую комплексную частотную характеристику: ЛГ0(/ю) = KS*(/co)e-^ = Kl/(a + /со). Таким образом, фильтр, согласованный с данным сигналом, может быть реализован в виде цепочки RC (рис. 14.4), у которой RC = I/a. 14.6. Определить комплексную частотную характеристику филь- фильтра, согласованного с сигналом где ти — длительность импульса s(t) на уровне А/е. Решение. Вычислим спектр видеоимпульса s (t): оо S(M = j s(t) e-/«* Л = 6 exp (--^ j , — oo где А/ = 2,25/ти — ширина спектра S(ja>) на уровне b/e. Исполь- Используя A4.24), находим #•„(/©) = ^оехр[— (//А/J — /ю7]. 14.7. Найти фильтр, согласованный с прямоугольным видео- видеоимпульсом А, 0 < t < ти, 0 при других ^, и вычислить отношение сигнал/шум на его выходе. Решение. Спектр прямоугольного видеоимпульса S(/©)= (" s(t)e~M dt= А Г е-/»' Л =-^-A_е~'ати). — оо О Таким образом, комплексная частотная характеристика -%(/со) фильтра, согласованного с прямоугольным видеоимпульсом дли- длительностью ти, имеет вид ^о(/о))= kS*(/(o) e-/ffl7" = -^ (е/ати— l)e-'»r. 423
ant) Усилитель Интегрсгтяр Рис. 14.6. Фильтр, согласованный с прямоугольным видеоимпульсом Если интервал наблюдения совпадает с длительностью импульса, т. е. Т = ти, то () /СО Схема такого фильтра приведена на рис. 14.6. Определим сигнал на выходе фильтра, имея в виду, что в соот- соответствии с A4.26) его импульсная характеристика имеет вид ho(t) = X,s{T -t) = Wos(xa - t). Следовательно, t t @ = j ho(xW — r)dx = СКй (j s (ти -x)s(t-x) dr. Нетрудно видеть, что максимальное значение [sBbIX (t)]max имеет место при t = ти и равно где ? = Л2тк — энергия сигнала s(t). Вычислим дисперсию шума Овых на выходе согласованного филь- фильтра, полагая, что спектральная плотность входного шума Sn(co) = NJ2, - оо оо. Тогда Следовательно, максимальное отношение сигнал/шум 14.8. На вход интегрирующей цепочки RC (рис. 14.4) воздей- воздействует аддитивная смесь статистически независимых стационарного гауссовского белого шума п (t) со спектральной плотностью Sn(co) = NJ2, — оо 424 < ш < оо, и прямоугольного видеоимпульса 0 при других ^. Под выходным отношением сигнал/шум а понимается отношение максимального значения сигнала на выходе к среднему квадратиче- скому значению выходного шума: О- = [«вых^тах^вых- Вывести соотношение, связывающее отношение сигнал/шум на выходе цепочки RC с длительностью импульса ти и эффективной шумовой полосой А/э цепи RC; определить, в каком соотношении должны находиться длительность импульсов и оптимальная эффек- эффективная шумовая полоса Д/э opt, при которой на выходе RC -цепи имеет место максимальное отношение сигнал/шум. Решение. В соответствии с теоремой Винера—Хинчина дисперсия стационарного шума на выходе цепочки RC Подставляя в это выражение ЩЪ) = 1/A + /ю#С), находим crLx = NJ4RC = iV0A/3/2, где Д/э = 1/2/?С — эффективная шумовая полоса цепи RC. Полезный сигнал на выходе рассматриваемого фильтра t где 0<г, а=1/КС, О при t <0. * В результате несложных вычислений находим адГоехрС-оО, 1, ^>0, где — единичная функция. Нетрудно видеть, что значение [sBfilI(/)]max имеет место при t = т„, т. е. в момент окончания входного импульса: =5ВЫ1(ТИ) = (/A - е-' 426
В соответствии с этим максимальное отношение сигнал/шум на выходе . V2U /|_е эти^ Для определения зависимости между длительностью импульса ти и оптимальной эффективной шумовой полосой А/э opt необходимо вычислить производную от а по А/э: da d(Af3) У No " L " " '2 Приравняв эту производную нулю, получим т„А/э opt = A/2) In [4тиА/э opt + 1], откуда А/э opt = 0,628/ти. При этом максимальное выходное отношение сигнал/шум !ти/ЛГ0 = 0,9^2Я/ЛГ0) где Е = ?/2ти — энергия входного видеоимпульса. 3. ЗАДАЧИ И ОТВЕТЫ 14.1. На вход фильтра поступает аддитивная смесь х (t) — = s(t) + n(t), где n(t) — стационарный нормальный белый шум со спектральной плотностью Sn(co) = NJ2, — оо <; со < оо; s(t) — взаимно не коррелированный с n(t) стационарный гауссов- ский случайный процесс со спектральной плотностью Г О при других а». Найти комплексную частотную характеристику Л?о (/©) физиче- физически нереализуемого линейного сглаживающего фильтра, миними- минимизирующего средний квадрат ошибки фильтрации Ответ: Л A — | <в + JV0/2 426 14.2. На вход фильтра поступает аддитивная смесь статистиче- статистически независимых случайного процесса s (t) со спектральной плот- плотностью Ss(co) = 1/A + со2), — оо < со < оо, и стационарного гауссовского белого шума п (t) со спектральной плотностью Sn(co) = NJ2, — оо < со < оо. Определить комплексную частотную характеристику fflo{j<u) оп- оптимального физически реализуемого линейного сглаживающего фильтра и вычислить соответствующий ему минимальный средний квадрат ошибки Ответ: где Ж« = - 7 = 14.3. Случайный сигнал имеет корреляционную функцию Rs{%) = ехр(— о|т|). Найти для такого сигнала импульсную характеристику ho(t) линейного физически реализуемого прогнозирующего фильтра, если спектральная плотность шума Sn(co) = 4/D + со2). Ответ: ho(t)= е-«+Д>, 1 + V2 где А •— время прогнозирования. 14.4. Решить -задачу 14.2 при условии, что спектральные плот- плотности сигнала и шума соответственно равны - 1+ СО2 — оо «в оо. Ответ: 2К + 1 " 14.5. На вход оптимального прогнозирующего линейного филь- фильтра с комплексной частотной характеристикой <^0(/«>). миними- минимизирующей средний квадрат ошибки 427
воздействует аддитивная смесь взаимно коррелированных стацио- стационарного шума n(t) и сигнала s(t) : x(t) = s(t) + n(t). Определить взаимную спектральную плотность Sxy (со) про- процесса x(t) и выходного процесса y(t) = s (t). Ответ: Sxy{a) = [Ss(co) + S,n(©)] e/<->\ 14.6. Найти комплексную частотную характеристику ^0(j(o) оптимального физически реализуемого прогнозирующего фильтра, на вход которого поступает аддитивная смесь статистически неза- независимых стационарного гауссовского белого шума n(t) со спектраль- спектральной плотностью Sn(co) = NJ2, — оо < со < оо, и стационарного случайного процесса s (t) со спектральной плот- плотностью Ответ: a2+w2 — аД 14.7. Определить комплексную частотную характеристику <%(/а>) оптимального физически реализуемого линейного сглаживающего фильтра при поступлении на его вход аддитивной смеси взаимно не коррелированных сигнала s(t) и помехи n(t), спектральные плот- плотности которых соответственно равны 2аа| Ответ: с2 (а+ 7) G +/«) где с2 = 2aof + гра2,, у = ]/2ар2 о,1 + 2а2 роД/с. 14.8. При тех же условиях, что и в задаче 14.7, определить комплексную частотную характеристику оптимального прогнози- прогнозирующего фильтра. Ответ: СКй (/со) = ¦ где А — время упреждения; с2 = 2aof + 200», у = 1/2сф2 сг* + 2а2 рай/с. 428 14.9. На вход оптимального линейного фильтра с комплексной частотной характеристикой Ж0(]'(о), минимизирующей средний квадрат ошибки e* = M{[y(t) — ds(t)/dt]*}, A4.28) воздействует аддитивная смесь x(t) = s(t) + n(t), где s(t) и n@ — взаимно коррелированные стационарные случайные про- процессы со спектральными плотностями Ss(co) и Sn(co). Определить взаимную спектральную плотность Sxy((o) вход- входного процесса x(t) и процесса y(t) на выходе фильтра. Ответ: Sxy(u>) = /co[Ss(co) + Ssn(co)], где Ssn(co) — взаимная спектральная плотность процессов s(t) и п@. 14.10. Применительно к условию задачи 14.9 вычислить мини- минимальное значение среднего квадрата ошибки A4.28). Ответ [4]: 14.11. На вход физически реализуемого линейного фильтра, минимизирующего средний квадрат ошибки A4.28), воздействует аддитивная смесь статистически независимых стационарных слу- случайного процесса s(t) со спектральной плотностью Ss(co) = А/[4а2 + B02 — со2J], — оо < со < оо, и гауссовского белого шума п (t), для которого Sn(co) = Л/„/2, — оо < со < оо. Определить оптимальную комплексную частотную характери- характеристику 3?0(j(a) фильтра и вычислить минимальное значение е^п. Ответ [4]: _ \А ( m-f/я со+т—/л 2mN0 \ [т + ;(л+Лх)]2—т2 (со—тх—/я со—т—/я —т+/л [т—/(л+лх)]2—mf ((й—тх—/Лх) где /П = = Vf>2 + Кр4 + a4, n = + а4— V Р4+а4 2#„ /" 2N0 6» 6» , 429
8^ =- 4 \n J^LQSP ,.Im/ s2 L[i?i m-t-jn 14.12. Процесс г/(?) представляет собой аддитивную смесь вза- взаимно не коррелированных стационарных случайных процессов s(t) и n(t): y(t) = a[s(t) + n(t)l Определить значение постоянной а, минимизирующей средний квадрат ошибки е2 = M{[y(t) — s(t+ A)]2}, и вычислить значение emin. Спектральные плотности процессов s(t) и n(t) соответственно равны S.(©) = - Ответ: 20а2 а = з—аД 6min = O| I 1 — — оо<; со<;<х>. —2аД 14.13. На вход оптимального сглаживающего фильтра, миними- минимизирующего средний квадрат ошибки воздействует аддитивная смесь *(*) = s(t) + n(t), где n(t) — стационарный нормальный белый шум со спектральной плотностью Sn(co) = NJ2, — оо < со < оо; статистически независимый от шума сигнал s(t) образуется про- пропусканием стационарного нормального белого шума l(t) со спек- спектральной плотностью Sg(co) = Щ12, — оо < со < оо, через интегрирующую цепочку RC (рис. 14.4). Определить минимальное значение среднего квадрата ошибки сглаживания & Ответ: где a = а2 = 14.14. На вход оптимального прогнозирующего (экстраполирую- (экстраполирующего) фильтра, минимизирующего средний квадрат ошибки B*=M{ly(t)-s(t+ A)]2}, 430 W Ркс. 14.7. Когерентный приемник x(t) ФНЧ \am{t) воздействует аддитивная смесь x(t) = s(t) + n(t), где s(f) и n(t) соответствуют условиям задачи 14.13. Определить минимальное значение среднего квадрата ошибки экстраполяции emin- Ответ: 1 —¦ а2е" a = l/RC, a2 = iVg/7Vn. 14.15. На вход когерентного приемника амплитудно-модулиро- ванных сигналов, состоящего из перемножителя и фильтра ниж- нижних частот (рис. 14.7), поступает аддитивная смесь x(t) = s(t) + + n(t), где n(t) — стационарный нормальный белый шум со спек- спектральной плотностью Sn(co) = N0/2, — оо < со < оо; s(t) = V2Pm(t)s'm((o0t + qp) — статистически не зависящее от n(t) амплитудно-модулированное колебание с подавленной несущей. Здесь со0 — угловая частота не- несущей, ф — случайная начальная фаза, равномерно распределен- распределенная на интервале (— я, я), m(t) — стационарный гауссовский слу- случайный процесс со спектральной плотностью Sm(co) = 2a/(a2 + со2), — оо < со < оо. На второй вход перемножителя подается опорное колебание Определить комплексную частотную характеристику ^0(/«>) фильтра нижних частот, минимизирующую средний квадрат ошиб- ошибки е2 = M{[y(t)~ m(t)]2}, и вычислить значение Ответ [92]: aa+/co 4Р aJV0 2P 431
Рис. 14.8. Трапецеидальный видео- видеоимпульс Т 'г 1L Z 14.16. Найти импульсную характеристику ho(t) согласован- согласованного фильтра для сигнала s(Ho: A, А, 0</<ОО, Ответ: 14.17. Определить импульсную характеристику ho(t) согла- согласованного фильтра для сигнала s(t) = ,4msinco0^ если на интер- интервале (О, Т) укладывается нечетное число полупериодов. Л , , .ч f Am sin сй„ ^, Ответ: ho(t) = l m ° 14.18. Найти согласованный фильтр для трапецеидального видео- видеоимпульса (рис. 14.8) где единичная функция Ответ [82]: ;<о. Рис. 14.9. Параболический ви- видеоимпульс A T-Tf ? T+Tf t z z — 14.19. Найти импульсную характеристику ho(t) согласован- согласованного фильтра для видеосигнала s(t), имеющего параболическую форму: A [l-Bt/%)*], — т/2</<т/2, О, \t\>%/2. Ответ [82]: ho(t) = -^-\-^--lo(t)+ -f M0@+ -+-(t-tJX 14.20. Видеоимпульс s(t) (рис. 14.9) описывается функцией, составленной из трех отрезков парабол таким образом, чтобы пер- первая производная s (t) была непрерывной: s@= 4А Т— 4Л о, Определить согласованный фильтр для такого импульса. Ответ [821: + ±(t-X-±- 14.21. На вход оптимального линейного фильтра, максимизи- максимизирующего отношение сигнал/шум на выходе, воздействует полезный сигнал и 2a-t, О, t<0,t^2a 432
и белый шум со спектральной плотностью Sn(co) = NJ2, — оо < со < оо. Найти комплексную частотную Ж0{](й) и импульсную ho(t) ха- характеристики фильтра. Ответ: t—(T—2a), T—'< T—t, T- { 0, t<T—2a, t>T. 14.22. Найти сигнал s2(t) на выходе фильтра, согласованного с входным сигналом о, Ответ: -KA*(t-T-xa), 14.23. На вход линейного фильтра воздействует аддитивная смесь x(t) = s(t) + n(t), где 0, t<O,t>xa ¦— прямоугольный видеоимпульс длительностью ти; н (t) — ста- стационарный гауссовский шум со спектральной плотностью Sn((o) = 2аа/(а2 + со2), — оо < со < оо. Найти комплексную частотную характеристику -%(/ы) филь- фильтра, максимизирующего выходное отношение сигнал/шум. Ответ [82]: ^0(/со)=^0[(а2//(о)— /со]A— е~;й)Ти). 14.24. Решить задачу 14.23 для случая приема прямоуголь- прямоугольного видеоимпульса на фоне стационарного шума со спектральной плотностью Sn(o») = 2аш2/(а2 + со2), 0 < со < оо. Ответ [82]: »„(/«,)= ^.[l _ 14.25. Найти комплексную частотную ^(/«>) и импульсную ho(t) характеристики оптимального фильтра, максимизирующего отношение сигнал/шум на выходе, если на вход фильтра поступает аддитивная смесь статистически независимых сигнала s (t) = Лехр(— 434 Рис. 14.10. Последовательность прямоугольных видеоимпуль- видеоимпульсов и шума со спектральной плотностью Sn((») = Noexp (- р2со2), причем р С а. Ответ: ЛГ0(/«») = -уо ехр[— (а2 — §2)со2 — /соГ], ехр — (t — ТJ 4 (а2—Р2 14.26. Определить комплексную частотную характеристику ЗГ0(/со) оптимального линейного фильтра, обеспечивающего мак- максимально возможное отношение сигнал/шум на выходе, если на вход фильтра поступает аддитивная смесь статистически независи- независимых полезного сигнала в виде последовательности из m прямоуголь- прямоугольных видеоимпульсов (рис. 14.10) и белого шума со спектральной плотностью = NJ2, — оо < со < оо. Ответ: 1-е /со 1-е' 14.27. Найти комплексную частотную характеристику 0{]) согласованного фильтра, максимизирующего отношение сигнал/шум, если в качестве полезного сигнала принять радиолокационный сиг- сигнал, представляющий собой пакет (пачку) из m прямоугольных им- импульсов, амплитуда которых изменяется в соответствии с формой диаграммы направленности РЛС (рис. 14.11). Рис. 14.11. Последова- Последовательность видеоимпуль- видеоимпульсов, модулированных по амплитуде щА I/ Ls(t) а,А «2 1—-А А т а зА \ г, *• - - «- П?" 435
Ответ: I+-+«me п](е'й)ти_1)е-/й)Г- 14.28. Определить максимальное значение отношения сиг- сигнал/шум на выходе устройства, изображенного на рис. 14.12, при воздействии на него аддитивной смеси статистически независимых белого шума n(f) со спектральной плотностью Sn(©) = N0/2, — оо < со < оо, и сигнала s(f), имеющего вид изображенной на рис. 14.13 последо- последовательности элементарных фазоманипулированных прямоугольных видеоимпульсов с равными амплитудами А и длительностями ти: s(t) = А[ 1 „(О _ 2.10(* - Зти) + 2-10(* - 4ти) - _10(*_5т„)]. Выходной фильтр согласован с элементарным импульсом и имеет импульсную характеристику 1 0 при других t. Ответ: а = [sBbIX (*)]ш„/овых = У 2E/N0, где Е = 5Л2ти— полная энергия сигнала. 14.29. На вход линейного фильтра, изображенного на рис. 14.14, подается аддитивная смесь статистически независимых стационар- стационарного гауссовского белого шума и сигнала s(t), представляющего собой пять следующих друг за другом элементарных прямоуголь- прямоугольных импульсов с равными амплитудами А и длительностями ти (рис. 14.15). Отводы от линии задержки соответствуют временным задержкам t3an = 0,4ти, 5ти, 9ти, 10ти и 14ти. Выходной фильтр согласован с элементарным импульсом (см. задачу 14.28). Определить максимальное значение отношения сигнал/шум на выходе фильтра. <t)+nff) *Н) Фильтр выход s(t) t А О — Рис. 14.12. Согласованный фильтр Рис. 14.13. Последовательность биполярных прямоугольных видеоимпульсов 436 —»> 1 »(-Z) ¦ 1  -| • • * 1 1  -+• Фильтр быход Рис. 14.14. Неоптимальный фильтр Ответ: а =. (Olma: -V- 36 2?и 28 Л?о где Ев = АНя — энергия элементарного импульса. 14.30. На вход одиночного колебательного контура с комплекс- комплексной частотной характеристикой ЛГ(/(о) = 2асо/[2асо + /(со2 — сооI воздействует аддитивная смесь x(t) = s(t) + n(t), где n(t) — стационарный гауссовский белый шум; s(t) — статистически не- независимый от шума прямоугольный радиоимпульс длительностью ти, несущая частота которого совпадает с резонансной частотой кон- контура со0. Определить оптимальное значение полосы пропускания Afopt контура, при котором выходное отношение сигнал/шум достигает максимума. _ Ответ: A/opt = 0,4/ти, amax = 0,9Vq, где А/—полоса пропускания на уровне 0,5 по мощности; q = = 2E/N0 — входное отношение сигнал/шум. 14.31. Решить задачу 14.30 для случая воздействия аддитивной смеси прямоугольного радиоимпульса и белого шума на идеальный фильтр с прямоугольной амплитудно-частотной и нулевой фазовой характеристиками: ^о. —«0—Асй/2<сй<—сйо + Асй/2, Жй, сй0—Асй/2<(й<(йо+А(й/2, 0 при других и. Ответ: A/opt = 1,37/ти, amaJi = 0,91т/"?. Рис. 14.15. Последовательность примыкаю- примыкающих прямоугольных видеоимпульсов 437 Т* St.
14.32. Решить задачу 14.30 для случая воздействия аддитивной смеси прямоугольного радиоимпульса и белого шума на гауссов- ский фильтр с комплексной частотной характеристикой —1,4 Ответ: Afovt = 0,72/ти, атах = 0,94]/^. 14.33. Вычислить максимальное значение отношения сигнал/шум на выходе фильтра с прямоугольной амплитудно-частотной харак- характеристикой "о. —«о —Д©/2<л)<[ —(оо +Д(о/2, "о, «о — Д(о/2^(о^(оо+ Д(о/2, @ при других со, при воздействии на его вход аддитивной смеси статистически неза- независимых белого шума и гауссовского радиоимпульса s(t) = Лехр[— 2,8 (t/xaJ + /©о*]. Определить оптимальное значение полосы пропускания фильтра. Ответ: Д/ор1 = 0,72/тиг amax = 0,94Vq- 14.34. Решить задачу 14.33 для случая воздействия аддитивной смеси белого шума и гауссовского радиоимпульса на гауссовский фильтр. Ответ: Д/ор4 = 0,63/ти, amax = V~q~. 14.35. На вход фильтра, согласованного с прямоугольным радио- радиоимпульсом s(t) длительностью ти: S(t) = ^mCOS@0<, 0 < ^ < Ти, (Ат, (оо и ти— постоянные величины), воздействует аддитивная месь статистически независимых сигнала s(t) и стационарного бе- белого шума n(t). Определить отношение сигнал/шум a(t) = UBNX(t)/aBSlli(t), где с^вых@ — огибающая сигнала на выходе фильтра, сгВЫ1(?) — среднее квадратическое значение выходного шума, в конце импуль- импульса (t = ти) для следующих случаев: 1) сигнал s(t) и шум n(t) начинают воздействовать на фильтр одновременно с момента t = 0 (случай точного временного строби- рования импульсного сигнала, принимаемого на фоне белого шума); 2) шум n(t) начинает воздействовать на фильтр с некоторым опережением At по отношению к сигналу s(t); 3) шум n(t) воздействует на фильтр с момента t-*- — оо, а сиг- сигнал s{t) — с момента t = 0 (случай отсутствия временного строби- рования). Ответ: 1) а(ти) = Vq~> 2) а(ти) = VI, 3) а(тн) = VT- Здесь q = 2EIN0, E = ЛДти/2. 14.36. На вход колебательного контура с комплексной частот- частотной характеристикой X (/©) = 2асо/[2а© + / (со2 — ©8)] 438 боздействует аддитивная смесь статистически независимых прямо- прямоугольного радиоимпульса s(^) длительностью ти и стационарного белого шума n(t). Определить отношение сигнал/шум а(ти) в конце импульса для случаев, указанных в задаче 14.35. Для случая отсутствия времен- временного стробирования определить оптимальное значение полосы про- пропускания Д/opt. при которой а(ти) = атах. Ответ: 1 —ехр(—яА/ти) 2) фя) = 3) а(ти) = 1 —exp [2nAf (ти + АО] Графики функции а(ти) = /(Д/ти, Д/Д?) приведены на рис. 14.16. 14.37. Решить задачу 14.36 для случая воздействия аддитив- аддитивной смеси сигнала s(t) и белого шума на" идеальный полосовой фильтр с комплексной частотной характеристикой (Хо, —(оо—До)/2<(о< —(оо+До)/2, \ Х(М=\ ж0, о)о—Дю/2<и<(.>„+Дсо/2, (О при других (о. Ответ: где — интегральный синус; 2) а(ха) = Si(z) = sinx Н A/°Pt = 1,37 \ 2 J ¦ ¦ ти Графики функции а(ти) = /(Д/ти, AfAt) представлены на рис. 14.17. 439
0,8 o,ff 0,2. 0 \k 111 N, I I AfAt= 0,05 -0 0,2 0,4 0,6 0,8 AfrH 0,8 0,6 O,it 0,2 0 I r fAfAt \ =0 0,3 0,6 0,3 7,2 Afги Рис. 14.16. Отношение сигнал/шум на Рис. 14.17. Отношение сигнал/шум на выходе колебательного контура выходе идеального фильтра 14.38. Решить задачу 14.36 для случая воздействия аддитивной смеси сигнала s(t) и белого шума на фильтр с комплексной частот- частотной характеристикой Ответ: -1/2 nAfAt fAt \ Ll W! 2 J 3) аЫ= "~ /Olff ' '°Pt ~ ти ' Значения а(ти) приведены на рис. 14.18. 14.39. На вход фильтра, согласованного с прямоугольным ра- радиоимпульсом so(t) длительностью ти: so(t) 0*, 0 440 t Рис. 14.18. Отношение сигнал/шум на выходе гауссовского фильтра 0,8 0,2 О // I/ / f 'AfAt KO,Z =0 1,2 1,8 Aft» (Am, co0 и ти — постоянные величины), воздействует аддитивная смесь x(t) — Sj(O + n(t), где n(t) — стационарный белый шум, si@ — статистически независимый от шума прямоугольный радио- радиоимпульс длительностью ти: Sj(O = ^mCOSG)^, 0 < t ^ Ти, частота которого щ отлична от частоты сигнала so(t)(\u>1— u>0\ = = Дюр < (оо)- Определить отношение сигнал/шум а(^) на выходе фильтра в конце импульса s^t). 0,8 Off Рис. 14.19. Зависи- мость отношения сигнал/шум на выхо- выходе согласованного фильтра и колеба- колебательного контура от обобщенной расст- расстройки rife sLn(ASlp/2) ^АПр/2 аги==2,51 /1,10 щ 0,25 441 0,5 0,75 АПР Zn
Ответ [93]: График функции а(ти)/}Л7 = /(AQP) представлен на рис. 14.19 (штриховая линия). 14.40. На вход колебательного контура с комплексной частотной характеристикой Щ]а>) = ^2aco/f2aco + /(со2 — cog)] воздействует аддитивная смесь x(t) = s^t) + «( стационарный белый шум, , 0 < t s?C ти где n{t) — ¦— статистически независимый от шума прямоугольный радиоим- радиоимпульс длительностью ти, частота которого щ отлична от резонанс- резонансной частоты контура (Icoj— со0| = Дсор <С <¦><))• Определить отношение сигнал/шум a(t) на выходе контура в конце импульса s-^t). Ответ [93!: 2ати («„)¦ +ДО» Значения функции а{хаIУя = рис. 14.19. ати) приведены на 0,8 o,ff\ 0,4 0,2 ¦ sin (A Sip/2) 44np/Z -- ^^ \^ АыТц-17,21 /15,06 //.10,76 0,25 0,5 0,75 Рис. 14.20. Зависи- Зависимость отношения сиг- сигнал/шум на выходе идеального фильтра от обобщенной рас- расстройки 442 Рис. 14.21. Зависи- И(ГЦ) МОСТЬ ОТНОШеНИЯ СИГ- \[д нал/шум на выходе гауссовского фильтра от обобщенной рас- расстройки 0,8 0,6 0,4 0,2 О sin(Aiip/2) ^4 Яр/2 \ /SrM = 7,ff8 / ,6,72 / //5,76 '^/Jj^80 \ > 0,25 0,5 0,75 2я 14.41. Решить задачу 14.40 в случае воздействия суммы x(t) на фильтр с комплексной частотной характеристикой «•(/©) = со0— — соо+Дсо/2, о, соо—Дсо/2 <! со <! соо +Асо/2, О при других со. Ответ [93]: — г Т Si (AcoTn/2+AQp/2)+Si (Асоти/2—AQp/2) Графики функции a(xa)lYq = /(AQP, Лсоти) представлены на рис. 14.20. 14.42. Решить задачу 14.40 для случая воздействия суммы х (t) на фильтр с комплексной частотной характеристикой (со—солJ Ответ [93]: 1/2 ехр ( —^- х* ) cos dx. Графики функции а(ти)/|/с7 = H&®v> Рти) представлены на рис. 14.21. 443
15. ОБНАРУЖЕНИЕ И РАЗЛИЧЕНИЕ СИГНАЛОВ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ При рассмотрении помехоустойчивости различных радиотехнических систем следует различать две группы задач. 1. Заданы статистические характеристики сигналов и помех и струк- структурная схема приемного устройства. Требуется определить количественные характеристики помехоустойчивости приема данных сигналов данным прием- приемником. 2. Заданы статистические характеристики сигналов и помех и характер их взаимодействия. Требуется определить структуру устройства, осущест- осуществляющего оптимальную, по определенному критерию, обработку смеси сиг- сигнала и шума, и вычислить соответствующие количественные характеристики помехоустойчивости оптимального приема данных сигналов. Задачи первой группы по существу сводятся к анализу воздействия на данное радиотехническое устройство заданной смеси сигнала и" шума. Ко- Конечной целью анализа является вычисление статистических характеристик случайных процессов на выходе приемника, необходимых для последующего определения требуемых количественных характеристик помехоустойчивости. Задачи этой группы решаются рассмотренными в предыдущих главах метода- методами анализа воздействия случайных процессов на линейные и нелинейные звенья радиотехнических устройств. Для решения задач второй группы необходимо использовать аппарат теории статистических решений [1, 27, 94—98]. Предположим, что на вход приемного устройства поступает смесь сиг- сигнала и шума x(t) = F[s(t), l(t)l A5.1) где s(t) — полезный сигнал; g(?) — помеха. Функция F [s, g], т. е. харак- характер взаимодействия сигнпла и помехи, а также статистические характери- характеристики шума \(t) и сигнала s(t) предполагаются известными. Применительно к случаю различения т сигналов, принимаемых на фоне помех, входящий в A5.1) сигнал s(t) можно представить в виде суммы = 2 A5.2) где Я,; •— параметр, определяющий, какой из сигналов si(t) = si(t, l[l\ l%\ ..., l*jp\ присутствует на входе приемника в данный момент времени; № — параметр сигнала Si(t), v = 1, 2, ..., k. Параметр Я,$ представляет со- собой случайную величину, принимающую на интервале наблюдения-(О, Т) значения Я,; = Я,г-0 = 0 либо %t = %ц = 1, причем если Я,; = \ц = 1, то все остальные входящие в A5.2) параметры Я^ с индексом / Ф i равны ну- нулю: Я,7- = \j0 = 0. Приемник, осуществляющий различение m сигналов, дол- должен определить, какой из коэффициентов Я,г- равен единице, т. е. какой из сигналов st(t) присутствует в принятом колебании x(t). В дальнейшем ограничимся рассмотрением лишь случая различения двух сигналов Sj(^) и s2(t), принимаемых на фоне помех. При этом сигнал A5.2) может быть представлен в виде A5.3) Здесь Я, — параметр, случайный образом принимающий два значения: Я, = = %1 = 1, что соответствует наличию в принятой реализации x(t) сигнала s^t), или Я, = Я,о = 0, когда в реализации x(t) присутствует сигнал s2(t). Представление сигнала s(t) в форме A5.3) характерно для различных систем 444 передачи двоичной информации, широко используемых в связи, телеметрии, телеуправлении и т. п. Применительно к случаю обнаружения сигнал s(t) представляется в виде s(t) = s(t, Я,) = ^(t, llt l2 h)- A5.4) Значение параметра X = Х-^ = 1 соответствует наличию на входе приемника смеси сигнала и шума, X = %0 = 0 означает, что на входе приемника имеет- имеется только шум. Приемник, предназначенный для обнаружения сигналов, определяет, какое значение на данном интервале наблюдения @, Т) имеет параметр Я,, т. е. представляет ли принимаемое колебание x(t) только шум или смесь сигнала и шума. В соответствии с теорией статистических решений принятие гипотезы X — Хх или % = %0 должно основываться на результатах анализа отношения правдоподобия. При дискретной обработке реализации это отношение имеет вид =pn(xi, х2, ...,хп\%1)/рп(х1,х2 хп\Х0), A5.5) где рп (хъ х2, ..., хп | Я-j) и рп (хъ х2, ..., хп\%0) — n-мерные плотности распре- распределения вероятностей выборок хъ = х(^) процесса x(t) соответственно при гипотезах А. = A.j и А. = Я,о. Рассматриваемая как функция параметра Я,, условная плотность распределения вероятностей рп(х1у х2; ••¦, хга I Я,) обозна- обозначается через ЦА.) и называется функцией правдоподобия. В случае непрерывной обработки реализации х (t) отношение правдопо- правдоподобия A5.6) A5.7) где A[x(t)] = Fix (t) | \]lFlx(t) | Я,о], Flx(t)\X]= lim pn(xux2, ..., xn\%) Д->-0 ¦— так называемый функционал плотности распределения вероятностей. Здесь А = th+i — tk — временной интервал между соседними выборками Xk = x(^fe, А) и Xfc+i = x(^fe+i, Я,). Рассматриваемый как функция от параметра Я,, он называется функционалом правдоподобия и обозначается через F(k). Следует отметить, что конечный пргдел, определяемый соотношением A5.7), не существует. Можно показать [96], что в правую часть равенства A5.7) входит множитель к = й(А), не зависящий от выборки х1у х2, ..., хп, но зависящий от А так, что при А -» 0 к -» со. Однако в результате того, что неопределенный множитель к не зависит от х1у хг, .-., хп, имеется возмож- возможность вычислить конечный предел отношения A5.5): lim - П-»-оо д->- о Flx{t)\K\ -. хп A5.8) Наиболее просто функции правдоподобия рп{х\, х2, ..., хп | Я,) = L (Я,) вычисляются в том случае, когда x(t) представляет собой аддитивную смесь сигнала s(t, Я,), зависящую только от одного случайного параметра Я,, и шума x(t) = s(t, \) + l(t). A5.9) В этом случае [96] Рп(х,х2 хп | Я,) = L(k) =pnllx1—s1(k), x2—s2(k) хп—sn(X)], A5.10) где Pugdi. 1г> ¦¦¦< In) — n-мерная плотность распределения вероятностей шума \ (t); Xk = x (tk); % (Я,) = s (tk, Я,). Переходя в A5.10) к пределу при А = th+i — *fe —> 0, получаем F lx (t) | Я,] = F (Я,) = Fs lx (t) — s (t, Я,)]. A5.11) 445
В более общем случае полезный сигнал может зависеть Не только от па- параметра Я,, называемого существенным, но и от ряда несущественных случай- случайных параметров 11у /2, ..., /ft. При этих условиях и функционал плотности рас- распределения вероятностей F^[x(t) —s(t, Я,, lx, /2, ..... /ft)] оказывается зави- зависящим от несущественных сучайных параметров и для определения функцио- функционала правдоподобия F[x (t) |Я,] требуется его усреднение по несущественным параметрам: ,...., 'ft)]X — ОО ОО xpk(/i, к, •¦-. A5.11а) Здесь Ph(li, /2, ..., /ft) — совместная плотность распределения вероятностей несущественных параметров /1; /2 /ft- Если |(/) представляет собой гауссовский случайный процесс с нулевым математическим ожиданием /Пе(/)=0 и корреляционной функцией.Rt(ti> h)=" = Afllg^) — ">g(fi)][i(fs) — m|(*2)l}> то ег0 n-мерная плотность распределе- распределения вероятностей определяется формулой p*(ll'%* ln)= х ехр 2Д Zi Zi AM-v aa av A5.12) =1v=l Здесь а2 = а| (f ) = М (g2^)} — т| (^) — дисперсия случайной величины Д = ''in '21 1 I ГП1 ГП2 —определитель n-го порядка, составленный из нормированных взаимных кор- корреляционных функций г^ = г (^, tv) = Rt (tiV t^lOy?^ Д^ — алгебраи- алгебраическое дополнение элемента r^v определителя Д. Переходя в A5.12) к пределу при Л = /ft-|-i — th -+ 0, получаем следующее выражение для функционала плотности распределения вероятностей гауссовского случайного процесса WY- 11 т т 1 оо J где в(<1, t2) определяется интегральным уравнением г [^1,т)9(т,уЛ = 6((!-у. о Иногда удобно преобразовать A5.13), введя функцию г При этом получим ~т! *«)ф@<" . A5.13) A5.14) A5.14а) A5.13а) 4^6 где функция ф (/), как это следует из A5.14) и A5.14а), удовлетворяет инте- интегральному уравнению Фредгольма первого рода: г f Rt(t, x)y(x)dx=l(t), 0<t<T. A5.146) о Предположим, что 5@ представляет собой гауссовский белый шум с ну- нулевым математическим ожиданием m^(t) = 0 и корреляционной функцией Rx(tx, <i) = M{Uh) Wz)} = {Nj1Lt* - <i). A5.15) Подставляя A5.15) в A5.146), находим, что Ф@ = B/N0)l(t), в соответствии с чем для функционала плотности распределения вероятностей белого шума получаем следующее выражение: = кехр | — ¦ A5.16) Аналогично находится функционал плотности распределения вероятно- вероятностей для гауссовского процесса |(?) с нулевым математическим ожиданием тМ) = 0 и корреляционной функцией A5.17) В этом случае [96] I • = кехр A5.18) Для гауссовского процесса |(/) с нулевым математическим ожиданием т~ @== =0 и корреляционной функцией имеем [96] A5.19) A5.20) где wg = «o=2a. Если в результате дискретной обработки принятой реализации x(t) окажется, что отношение правдоподобия A5.5) превышает некоторую вели- величину С, т. е. 1 ()J~ A5.21) принимается решение Я, = A,j. В противном случае принимается решение Я,= Я,„. 447
Принятие решения означает разбиение всей области Г возможных зна- значений *!, хг, ..., хп на две подобласти 1\ и Го. При попадании принятой вы- выборки xi, х2, ..., хп в область Тх принимается решение Я, = Хх, а при попада- попадании xlt х2, ..., хп в область Го принимается решение X = Я,о. Так как рп(хъ х2, .... *n|^i) и Рп(хх, х2, ..., хп | Я,р) определены по всей области Г, всегда имеется вероятность того, что при X == Хо выборка xlt x2, ..., хп попадает в подобласть Г1!, или наоборот, при X = Xt выборка xlt х2, ..., хп попадает в подобласть Го. Таким образом, при приеме реализации x(t) всегда имеется вероятность принять ошибочное решение Я, = Xlt тогда как в действительности Я, =¦ Хо, и наоборот. Эти условные вероятности называются соответственно вероятностями ложной тревоги PF и ложного отбоя Рр и определяются соотношениями , х2 хп | Хо) dxtdx2 ... dxn, A5.22) (xL, x2 хп | Xi) dx1 dx2 ... dxn . A5.23) Г1 Вероятности принятия правильных решений X = Хх или X = Хо называются мощностью решения и обозначаются соответственно через РD^ и РДо: , х2 хп\ X1)dx1dx2 ... dxn, A5.24) , х2 хп | Хо) dxx dx2 ... dxn. A5.25) Г, Следует отметить, что условные вероятности PF и PFa не полностью Характеризуют ошибки решения. Относительная частота появления этих °шибок зависит от значений априорных вероятностей p(kj) и р(к0), т. е. от того, насколько часто априори на входе решающего устройства появляется снгнал, соответствующий X — Хх или Я, = А.о. Поэтому в ряде случаев ошибки решения характеризуются полными вероятностями ошибок первого Pt и второго Р2 рода: , A5.26) t )Flp( A5-27) Значения вероятностей ошибок зависят от правила принятия решения A5.21) и определяются значением постоянной С. Естественно выбрать та- такую постоянную, при которой правило A5.21) оказывалось бы в определен- определенном смысле оптимальным. В задачах связи, телеметрии и телеуправления в ка- качестве критерия оптимальности обычно используют критерий идеального на- наблюдателя (критерий Котельникова—Зигерта), совпадающий с байесовым критерием минимального среднего риска при простой функции потерь, когда ошибочному решению приписывается вес, равный единице, а правильному — вес, равный нулю. Согласно этому критерию оптимальным считается соот- соотношение A5.21), минимизирующее суммарную вероятность ошибок первого и второго рода Р = р(Х1)Р(Х0\Х1)+р(Х0)Р(Х1\Х0). A5.28) Можно показать [96], что это условие выполняется при С= р(Я,0)/р(Я.1), в соответствии с чем оптимальное по критерию идеального наблюдателя пра- правило принятия решения X = Хх принимает вид ЦХ^/ЦХо) > р(КIр(Ю- A5.29) В случае непрерывной обработки реализации х (t) правило A5.29) преобра- преобразуется к виду > Р D1Р (К) ¦ <15 -29а) 448 В задачах радиолокации широко используется другой критерий опти- оптимальности, называемый критерием Неймана—Пирсона. Согласно этому кри- критерию оптимальным считается правило A5.21), максимизирующее вероят- вероятность правильного решения PD (мощность решения) при заданной вероят- вероятности ложной тревоги Рр^. Можно показать [96], что это условие выполняет- выполняется при С = ft, где h определяется по заданной вероятности ложной тре- тревоги Рр^. Таким образом, оптимальное по критерию Неймана—Пирсона правило принятия решения X => Xi имеет вид или > h A5.30) > h. A5.30a) Таким образом, решение сформулированных в начале параграфа задач второй группы сводится к отысканию оптимального устройства, осущест- осуществляющего обработку принимаемой смеси x(t) в соответствии с правилами A5.29) или A5.30), и вычислению соответствующих вероятностей ошибоч- ошибочных решений. В двух рассмотренных критериях предполагалось, что решение прини- принимается за фиксированный интервал времени длительностью Т. Однако в от- отдельных случаях принимаемая реализация x(t) может оказаться настолько благоприятной, что надежное обнаружение или различение сигналов можно произвести значительно быстрее, чем и случае приема менее благоприятной реализации. Поэтому, если заранее не фиксировать длительность Т наблюде- наблюдения, можно получить в среднем значительную экономию во времеии обработ- обработки принимаемых реализаций дс(^). Такое наблюдение, при котором длитель- длительность обработки *(^) заранее не фиксируется, а определяется самим ходом эксперимента, называется последовательным наблюдением (последователь- (последовательным анализом) [99, 100]. При последовательном наблюдении производится непрерывный анализ отношения правдоподобия и сравнение его с двумя порогами hx и h0 < ftj. Если отношение правдоподобия меньше h0, принимается гипотеза Я, = Хо. Если же отношение правдоподобия Л{х(<I > fti, принимается гипотеза Я, = Я1. В том случае, когда отношение правдоподобия находится между ниж- нижним ha и верхним 1ц уровнями, считается, что полученная в результате обра- обработки реализации x(t) статистика недостаточна для принятия решения и ис- испытание продолжается. 2. ПРИМЕРЫ 15.1. На вход радиоприемного устройства поступает колебание x(t) = **(/, i\", ft»,.... ft») + (l - %)s2(t, l\*\ ir,.... &") + ?(*). A5.31) где %(t) — стационарный гауссовский белый шум с нулевым мате- математическим ожиданием и корреляционной функцией Яб(т) = (ВД6(т); A5.32) st(t, /<<>, /('), .... /<?) = f(t, /</>, .... /<')) cos [©,< + + ?,(*, lV+u -, №)], i = 1, 2, A5.33) — детерминированные узкополосные радиосигналы. Здесь ©г—несущие частоты, ft(t) и?;(<)—функции, отображаю- отображающие законы амплитудной и угловой модуляции, 1[1) — априорно известные параметры сигналов St(t, /</>, /<(>, ..., /)?) = Si(t). 15 За к. 1208 449
Предполагается, что ширина спектров сигналов s^t, l[1}, 1$ , .... /й') и s2(t, l\*\ lf\ ..., /m2)) много меньше их несущих ча- частот и, кроме того, | (Oj — ю2| = А«« иь а сами сигналы S;(^, /<'>, /^>, ..., /„') полностью определены на интервалах времени длительностью Т и равны нулю вне этого интервала. Параметр % представляет собой случайную величину, принимающую на фикси- фиксированном интервале (kT, (k + l)T), k = 0, 1, 2, ..., значение % = = Xj = 1, что соответствует наличию в принятом колебании x(t) \1} Гп /U*) @ Я Я 0 сигнала s^t, l\1}, Г2 2п = si@ или Я = Я„ = 0, когда Д2) /i2) С) ^, ) в колебании х (t) присутствует сигнал s2 (t, Д2), /i>2), ..., С) = = s2@- Априорные вероятности p(sj) = p(^) и p(s2) = р(Х0) присутствия сигналов A5.33) в колебании A5.31) считаются из- известными. Определить структуру приемного устройства, осуществляющего оптимальную по критерию идеального наблюдателя обработку реа- реализации x(t) и вычислить соответствующую ей минимальную сум- суммарную вероятность ошибочного приема детерминированных сигна- сигналов Sl(t, /i1', ft1», ..., 41') = sx(o и ss(f, i\*\ l?\ ..., 4") = s2(t). Решение. Как следует из A5.11) и A5.16), в случае приема сигналов St(t, /(/>, /(,\ ..., fm) = st (t) на б F (Я) F(X) детерминированных фоне белого шума l(t) функционалы правдоподобия F определяются соотношениями Slit)]dt\' F(K0) = к ехр -J- Г [x (t) -s2 (О]2 dt\. { No { J () и F(X0) A5.34) A5.35) Подставляя A5.34) и A5.35) в A5.29а) и логарифмируя получен- полученное выражение, находим, что оптимальный приемник для различе- различения двух детерминированных сигналов St(t) (i = 1, 2) на фоне бе- белого шума должен сформировать величину т т U = j' x(t)Sl(t)dt — f x(t)s2(t)dt и сравнить ее с порогом Здесь == Г s\{t)dt, ?2= о A5.36) A5.37) A5.38) — энергия сигналов Sj(^) и 450 X r 0 X I 0 t Пороговое ycmpoucmffo H ff>t/-X-f x(t) СФ1 h1(t)=s1(T-t) СФ1 Пороговое устройство ff) Рис. 15.1. Оптимальные устройства для различения двух детерминированных сигналов Решение % = 1 принимается при]?/ > Я, в противном случае принимается решение % = 0. В соответствии с A5.36) и A5.37) искомое оптимальное приемное устройство должно состоять из двух перемножителей, интеграто- интеграторов и порогового устройства с порогом Я (рис. 15.1, а). Перемно- Перемножители и интеграторы можно заменить согласованными фильтра- фильтрами (СФ) [82, 90] с импульсными характеристиками ht{t) = st(T - t), A5.39) при этом схема оптимального приемника преобразуется к виду, изо- изображенному на рис. 15.1, б. Предположим, что колебание A5.31) на входе приемного уст- устройства имеет вид x(t) = s^t) -f t(t), а сформированная приемни- приемником величина U < Н. В этом случае будет иметь место ошибка (принимается решение % = 0, когда в действительности X = 1), вероятность которой н A5.40) Здесь p^U \X = 1) — условная плотность распределения вероят- вероятностей случайной величины U при наличии на входе приемника сигнала s^t). Из A5.36) следует, что U является гауссовской случайной ве- величиной с плотностью распределения вероятностей 15* 451
математическое ожидание т% и дисперсия ?)% = crj которой за- зависят от параметра К. Подставляя, в частности, в A5.36) сумму x(t) = s1(<) + %(t), после несложных вычислений находим „,х_, = Е1 — В., Е2 - 2В.), где 5. = Js1@s,@^. о A5.42) Таким образом, вероятность принятия ошибочного решения Я, = О 1 НУ '{ \ 2У(Е1+Е2-2В8)Ы0/2 )]' V ' где Ф(г) = 1 е 2 ** dx — интеграл вероятности. Пусть U > Н, x(t) = s2(t) + l(t). В этом случае также име- имеет место ошибка (принимается решение Я, = 1, когда в действи- действительности Я, = 0), вероятность которой оо Рг = p(s2)P(sx I s2) = pis,) j Pl(U 11 = 0)dU. A5.44) В данном случае тя=о = Bs — Е2, <rjU = (?j + ?2 — 2Bs)N0/2 A5.45) и формула A5.44) принимает вид ШШтШ)\. (.15.46) +Ea S)NJ2 Подставляя A5.43) и A5.46) в A5.28), находим следующее выраже- выражение для суммарной вероятности ошибки при оптимальном приеме детерминированных сигналов: , +E2-2Bs-N0 In [p (sg)/p (si)] 1 —< 1 —Ф ' Et+ E2—2BS+NO In [p (sg)/p (Si 2 . A5.47) 452 При p (sx) = p (s2) = 1/2 формула A5.47) значительно упроща- упрощается: p = i _ ф (КМ1 + S - 2Psl)/4), A5.48) где <7! = 25^0, б = E2/Ev psl = BJE,. A5.49) Для большинства применяемых в системах радиотелеграфии сиг- сигналов характерным является равенство их энергий Et = Е. При этом условии из формул A5.48) получим [27] где Bs Е A5.50) A5.51) — коэффициент взаимной корреляции сигналов s1 (t) и s2 (t). Из A5.50) следует, что определение потенциальной помехоустой- помехоустойчивости для случая оптимального приема детерминированных сиг- сигналов сводится к вычислению коэффициента их взаимной корре- корреляции. Учитывая монотонно возрастающий характер функции Ф (г), приходим к выводу, что при одинаковых отношениях сигнал/шум q = 2EIN0 наиболее помехоустойчивыми являются сигналы st (t), для которых коэффициент ps минимален. Значения Р = / (q, ps), вычисленные по формуле A5.50), представлены на рис. 15.2. 15.2. На вход радиоприемного устройства поступает колебание х (t) = Ks (t, /lf /2, ..., (t), A5.52) где E (t) — стационарный нормальный белый шум с нулевым ма- математическим ожиданием т% = 0 и корреляционной функцией A5.32); s (t, h, l2, .... U = / (t, 1Ъ ..., /ft) cos [co0* + W (t, lM, ..., IJ], A5.53) — детерминированный узкополосный радиосигнал. Здесь (о„ — несущая частота, / (() и ? (t) — функции, отображающие законы амплитудной и угловой модуляции, lk — априорно известные пара- параметры сигнала s (t, 1Ъ 12, ..., lm) = s (t). Предполагается, что шири- ширина спектра сигнала s (t, 1Ъ 12, ... , 1т) много меньше его несущей частоты, а сам сигнал полностью определен на интервале длитель- длительностью Т и равен нулю вне этого интервала. Параметр Я, представ- представляет собой случайную величину, принимающую на фиксированном интервале наблюдения @, Т) значение Я, = Я,х = 1 или Я, = Я,„ = 0. Определить структуру приемного устройства, осуществляющего оптимальную по критерию Неймана—Пирсона обработку реализа- реализации х (t) и вычислить характеристики обнаружения детерминирован- детерминированного сигнала s (t, lt, l2, ..., lm) на фоне белого шума. 453
,и го во я-w 10 -1 70 .-г 10 -з 10 ¦-« \ \ \ \ \ 0,14 PS'f Рис. 15.2. Суммарная веро- вероятность ошибочного приема детерминированных сигна- сигналов Решение. В соответствии с A5.11) и A5.16) для рассматривае- рассматриваемого случая oj I = к ехр Г No J L о x2(t)dt \. A5.54) (.15.55) Подставляя A5.54) и A5.55) в A5.30а) и логарифмируя полу- полученное выражение, находим, что оптимальный приемник для обна- обнаружения детерминированного сигнала s(t) должен сформировать величину т U=^x(t)s(t)dt A5.56) и сравнить ее с порогом #„ = (Е + No In K)I2, 454 A5.57) где т о A5.58) — энергия сигнала s (t). При U> Но принимается решение % = ^ = 1, в противном случае принимается А, = А,о = 0. На основании A5.56) и A5.57) искомый оптимальный приемник должен состоять из перемножителя, интегратора и порогового уст- устройства с порогом Яо (рис. 15.3, а). Как отмечалось, перемножитель и интегратор можно заменить согласованным фильтром с импульс- импульсной характеристикой = s(T-t), A5.59) при этом схема оптимального обнаружителя преобразуется к виду, изображенному на рис. 15.3, б. Найдем характеристики обнаружения. Вероятность ложной тре- тревоги Pf, равна вероятности того, что U> #0 при условии % = = х0 = 0, и определяется формулой A5.60) Здесь pj (?/|Я = 0) — плотность распределения вероятностей слу- случайной величины U при I = 1й = 0, т. е. при наличии на входе при- приемника только шума. Как следует из A5.56), U представляет собой гауссовскую слу- случайную величину с плотностью распределения вероятностей A5.41). При К = 0 откуда находим = 0, = ENJ2. A5.61) x(t) x(t) X \s(t) т S 0 и ю СФ и Пороговое устройство Но 1/>Но~Л=7 U<Ho^X=0 Пороговое устройство Но U>H0+X=7 U<Ho-4,=O Рис. 15.3. Оптимальные устройства для обнаружения детерминированного сигнала 455
Подставляя A5.41) в A5.60) и учитывая соотношения A5.61), по- получаем PFt = 1 - Ф (hjVq), Я = ZEWo, A5.62) где Ф (г) — интеграл вероятности; ft0 = 2HJNO = EIN0 In ft. A5.63) Вероятность правильного обнаружения (мощность решения) PDi равна вероятности того, что U > #0 при условии К = Kt = 1: PDl=\p1(U\K=l)dU. н A5.64) Подставляя в A5.64) плотность распределения вероятностей A5.41) и учитывая, что при К=К1 — 1 математическое ожидание и диспер- дисперсия случайной величины U равны находим mx-i = E, 0l=i = ENJ2, PDt = 1 - Ф (ho/VT- VT). A5.65) A5.66) Формулы A5.62) и A5.66) показывают, что как вероятность лож- ложной тревоги Pflt так и вероятность правильного обнаружения Pdi однозначно определяются пороговым уровнем h0 и отношением сигнал/шум q = 2E/N0. Задаваясь значением вероятности ложной тревоги PFl, по формуле A5.62) можно вычислить зависимость ft0 = /j (q), а затем определить функцию Рд, = f2 (я), называемую характеристикой обнаружения. Значения Ро, = /г (я)> вычислен- вычисленные по формуле A5.66) для нескольких значений вероятностей лож- ложной тревоги, представлены на рис. 15.4 (сплошные линии). 15.3. Решить пример 15.2 при условии, что процесс ? (t) в A5.52) представляет собой стационарный гауссовский шум с нулевым ма- математическим ожиданием т| = 0 и корреляционной функцией Rl (tu h). Решение [96]. В соответствии с A5.11) и A5.13) функционалы правдоподобия для рассматриваемого примера определяются со- соотношениями т т F (К)= 1 —l- f fe^, ti)x(tjx(tt)dt1 dtal A5.67) oo F {К) = к ехр i- j1 Г е ft, 4) [ж ft) -s ft)] [* (t2) -s (t2)] dt, dt2 [ о о A5.68) 456 i 8 10 11 Sq4ZE/N0 Рис. 15.4. Характеристики обнаружения детерминированного сигнала (сплош- (сплошные линии), сигнала со случайной начальной фазой (штриховые) и сигнала со случайной амплитудой и начальной фазой (штрих-пунктир) где функция Э (tlf t2) удовлетворяет интегральному уравнению A5.14). Подставляя A5.67) и A5.68) в A5.30а), находим т т 2j J о о T T -. + ^x(t1)s(t2)Q(tltt2)dt1dt2\. о о Здесь учтено, что вследствие симметрии функции 0 (tlt t2) т т т т ' х (У s (t2) 9 (tlt t2) dtx dt2 = j j x (t2) s ft) 9 ft, t2) dt, dt2. Вводя далее функцию т удовлетворяющую интегральному уравнению Фредгольма первого рода, J 7?5 (t, т) ф (t) dx = s (t), окончательно получаем Г т т 1 = ехр —l-^s(t)<p(t)dt+ fx(t)<p(()dt \. A5.69) 457
Согласно критерию Неймана—Пирсона решение А, = Xt = 1 принимается при A[x(t)]>h. A5.70) После логарифмирования это условие приводится к виду U = j х (t) s (t) dt > h0, где A5.71) A5.72) Соотношение A5.71) определяет структуру оптимального обна- обнаружителя. Если окажется, что 11> h0, принимается решение Я = Хг = 1, в противном случае принимается решение X = Ко = 0. Определим характеристики обнаружения. Вероятность ложной тревоги определяется формулой A5.60), гдер! (U\X — 0) — плот- плотность распределения вероятностей случайной величины U, которая при Я, = Яо = 0 равна т и = j i (t) ф (О A5.73) и, следовательно, представляет собой гауссовскую случайную ве- величину с плотностью распределения вероятностей A5.41), с нуле- нулевым математическим ожиданием пг%=0 = 0 и дисперсией о?=о = J j Ri Qlt t,) ф (У ф (У ^Л2=j s @ Ф @ Л = о8. 0 0 0 После подстановки A5.41) в A5.60) получаем pFi = 1 _ ф (А0/Оо). Вероятность правильного обнаружения равна PDt = 1 — Ф (^о^о — О0). 15.4. Входящие в A5.31) сигналы st (t, /</>, /</', $ вид Si (t, ф, /<,", ..., Й1') = St (t, ф,) = /, @ COS [<o,/ + t = 1, 2, имеют (t) + ф,], A5.74) причем все параметры № таких сигналов, кроме начальных фаз Фь априори известны, а начальные фазы фг представляют собой слу- случайные величины, равномерно распределенные на интервале (— л, л), и считаются несущественными параметрами. Сохраняя в силе ос- остальные условия примера 15.1, определить схему оптимального по критерию Котельникова—Зигерта приемника сигналов st (t, q>t) 458 со случайными начальными фазами и вычислить суммарную ве- вероятность ошибочного приема. Решение [101]. В этом случае функционалы правдоподобия F (A.j) и F (Я0)следует вычислять по формуле A5.11а), осуществляя усреднение по случайным фазам ф; как несущественным параметрам: (щ t + ifo (t) + dt A5.75) —f2(t)cos(a2t Введем обозначения A5.76) A5.77) О sin и учтем, что я где /0 (^) — функция Бесселя нулевого порядка от мнимого аргу- аргумента. Тогда после подстановки A5.75) и A5.76) в A5.29а) и ряда не- несложных преобразований найдем, что оптимальный приемник для различения двух сигналов A5.74) с неизвестными начальными фа- фазами должен сформировать величину U = In /0 BRJNO) - In /0 BR2/N0) A5.78) порогом Н = {Е1 — E2)/N0 + In [p Здесь Ег и Е2—энергии сигналов Sx (t, мые формулами A5.38). Величины б и сравнить ее с {Е / l)/p (s2)]. A5.79) ^ и s2 {t, ф2), определяе- определяефру () и Rt = YW + Yf пред- представляют собой значения огибающих суммы сигнала s,- (t, фг) и шума (в моменты времени t = kT) на выходе согласованных филь- фильтров с импульсными характеристиками ht (t) = st (T — t). Схема такого приемника представлена на рис. 15.5, а. Приня- Принятое колебание х (t) воздействует на'два'согласованных фильтра с им- 459
x{t) /lf(t)=Sr(T-t) СФ1 hz(t)-sz(T-t) Пороговое устройство Н СФ1 СФ2 hz(t)-sz(T-t) Линейный йетентор osuffa/ощей Линейный детентор огибающей ~Jl Пороговое устройство //=0 t) Рис. 15.5. Оптимальные устройства для различения двух сигналов со случай- случайными начальными фазами пульсными характеристиками ht (t). На выходе каждого фильтра стоят детекторы огибающих, выходные напряжения которых вычи- вычитаются и разность A5.78) подается на пороговое устройство с по- порогом Н. При U > Н принимается решение Я, = 1, при U <С Н принимается Я, = 0. В дальнейшем ограничимся рассмотрением лишь симметричных систем передачи двоичных сигналов, для которых ?г = Ег = Е, р (Sl) = р (s2) и Р (Sj|s2) = P (s2|sx). Для таких систем, как это сле- следует из A5.79), порог Н = 0 и выражение A5.78) приводится к виду U = /0 - /о Следует отметить, что при сделанных здесь предположениях закон детектирования не имеет существенного значения. Важно лишь, чтобы выходное напряжение детектора было монотонной функ- функцией огибающей Ri (t). Если, например, в оптимальном приемнике применить линейное детектирование огибающей (рис. 15.5, б), то с нулевым порогом нужно сравнивать величину U = Rx — ^2. Суммарная вероятность ошибки при этом определяется формулой оо оо A5.80) Rt где 11 2> aMl-P2)eXPL 2 2a2(l-P2) J X A5.81) 460 — совместная плотность распределения вероятностей случайных величин R1 и ^2. Здесь q = 2EIN0 — отношение сигнал/шум на входе приемника (на входе согласованных фильтров), cr2 = EN0/2 — дисперсия шума на выходе каждого фильтра, р — коэффициент, имеющий смысл коэффициента взаимной корреляции между сиг- сигналами: р = \УЖ+Ц\/е, о<Р<1, Подставив A5.81) в A5.80) и выполнив интегрирование, полу- получим следующее выражение для суммарной вероятности ошибки при приеме сигналов s, (t, срг) с неизвестными начальными фазами: где ОО (v,u)=^xехр / — и Щ /0(vx)dx, A5.83) A5.84) — функция распределения Релея—Раиса [32, 102]. 15.5. Решить пример 15.2 при условии, что входящий в A5.52) сигнал s (t, lL, tz, ..., lm) имеет вид s (t, /lt l2, ..., lm) = s (t, ф) = / (t) cos [(o0t + ф (t) + ф], A5.85) где ф — случайная начальная фаза, равномерно распределенная на интервале (— я, я). Решение. Функционалы правдоподобия для рассматриваемого случая в соответствии с A5.11а) равны [г 0 о ^.). A5.86) A5.87) После подстановки A5.86) и A5.87) в A5.30а) получаем следую- следующее правило принятия решения "К = Кг = 1 (рис. 15.6, а): eE'N-I0BR/N0)>h A5.88) 461
x(t) x(t) СФ hd)-s(T-t) If Пороговое устройство ho U>/ia -*Л a) СФ Линейный детектор огид~аюшей ЛдрЯ8двое цс/пройшбо ft ft Рис. 15.6. Оптимальные устройства для обнаружения сигнала со случайной начальной фазой или где /0 BRINO) > h0 = he?/»; A5.88a) cos [©о t + ф(О]dt. A5.89) Y = sin Так как функция /0(г) является монотонной, решение о нали- наличии или отсутствии сигнала s (t, ф) на входе приемника можно при- принимать на основании сравнения с некоторым порогом любой моно- монотонной функции аргумента R, представляющего собой, как отмеча- отмечалось в примере 15.4, значения огибающей R (t) на выходе согласован- согласованного фильтра с импульсной характеристикой h (t) = s (T—t) в момент времени t = Т. Если сравнивать с порогом Н саму оги- огибающую R (t), то правило принятия решения Я = Хх = 1 принимает вид R > Н. A5.886) Соответствующая этому правилу схема оптимального приемника приведена на рис. 15.6, б. В соответствии с A5.886), A5.22) и A5.24) вероятности ложной тревоги и правильного обнаружения определяются формулами A5.90) н Нетрудно показать, что входящие в A5.90) плотности распределе- распределения вероятностей равны R I R2+E2 \ * ( RE\ <r? Pl 2ctJ ) °[ <*Ъ )' 462 После подстановки Pi(R\X — 1) и рг (R\X = 0) в A5.90) находим d о-Лп/.?;ь _ V2# _Н A5.90a) h0), где функция Q (v, и) определена соотношением A5.84). Значения Pd, = / (q), вычисленные по формулам A5.90а) для заданных зна- значений вероятности ложной тревоги PFl, представлены на рис. 15.4 (штриховые линии). 15.6. На вход приемного устройства поступает колебание x(t) = -X) н2 @ A5.91) где | (t) — комплексный стационарный гауссовский белый шум с нулевым математическим ожиданием nir— 0 и корреляционной функцией @1}. 0 — федингующие сигналы. Здесь Si @ = /, @ ехр {/ [щг + — детерминированные узкополосные радиосигналы, аи 8 — не зависимые случайные величины, характеризующие медленные из- изменения амплитуды и фазы сигналов s, (t). Принимаемые сигналы ut (t) состоят из детерминированной и слу- случайной состарляющих: т. е. A5.92) A5.93) где а и б представляют собой амплитудный коэффициент и фазовый сдвиг детерминированной составляющей сигнала щ (t) (а и б — постоянные величины); р и е — амплитудный множитель и фазовый сдвиг случайной компоненты, постоянные на интервале наблюдения @, Т). В дальнейшем будем предполагать, что Р и е представляют собой независимые случайные величины, причем р распределена по закону Релея, а е — равномерно на интервале (— я, я), вследствие чего их совместная плотность распределения вероятностей имеет вид 2да| 0 0<Р<оо, —л< при других р и е. 463
При сделанных предположениях совместная плотность распределе- распределения вероятностей случайных величин а и 6 определяется законом Раиса: р2(а,6) = О a"-fa" — 2aacos(e—I при других а и Э, A5.94) а средние энергии сигналов «, (t) a2 Pl (a) da * где v = а/Оф характеризует соотношение между детерминирован- детерминированной и случайной составляющими сигнала щ (t); Es. — энергия сиг- сигналов st (t). Параметр % в колебании A5.91) может принимать значения Я = Х1 = 1 или Я = Яо = 0 с априорными вероятностями р (Ях) = = Р («i) = Р (К) — Р {Ю = 1/2. По принятой реализации х (t) требуется решить с минимальной суммарной вероятностью ошибки A5.28), какое значение имеет параметр X на данном интервале на- наблюдения (О, Т). Решение [103]. При решении сформулированной задачи следует различать два частных случая: 1) среднее значение б фазового сдви- сдвига 6 принимаемых сигналов A5.92) априори известно; 2) среднее значение фазового сдвига 0 на приемной стороне неизвестно. Подставляя в A5.11а) вместо сигналов st (t, l['\ /<'), ..., /^') сигналы ui {t) = иг (t, a, 8), определяемые соотношением A5.92), и осуществляя усреднение по несущественным параметрам а и 6 с плотностью распределения вероятностей A5.94), находим, что оп- оптимальный по критерию идеального наблюдателя приемник сигна- сигналов A5.92) с равными энергиями Е± = Е2 = Е, равными априор- априорными вероятностями р (их) = р (и2) = 1/2 и известным средним значением б их фазового сдвига 0 должен сформировать величину U = A5.95) и сравнить ее с порогом Я = 0. При U < Я выносится решение Я = 0, при U > Н принимается Я = 1. 464 ' Xtt) KOttapamuv- й apam нь/й е оетект огибающ ей fiz(t)=uz(T-t) нь/й tfeme/f/rop X \ ЕГ II U ffoposoSoe устрой- устройство H-0 X 3!(t) СФ1 ftfCt)=<Jf(T-t) Детектор огибающей C0Z Детектор osuffcr/oiqeu U пороговое устрой- устройство f/=O Рис. 15.7. Квазикогерентное (а) и некогерентное (б) устройства дли различе- различения двух медленно федингующих сигналов Входящие в A5.95) величины rt = rt @) — значения комплекс- комплексных взаимных корреляционных функций сигналов A5.92) и приня- принятого колебания A5.91), равных Здесь х* (t) — функция, комплексно-сопряженная с lc (t). Исполь- Используя условие узкополосности сигналов иг (t), можно показать, что действительная часть функции rt (т) представляет собой взаимную корреляционную функцию для действительных частей колебаний x(t) и иг @: _ о а значения \гг (т)[ совпадают со значениями огибающей этой кор- корреляционной функции.' В соответствии с этим схема оптимального приемника может быть представлена в виде, изображенном на ри- рисунке 15.7, а. При этом суммарная вероятность Р ошибок квази- квазикогерентного приема медленно федингующих сигналов A5.92) подсчитывается по формуле P=Q(ac,bc)- <15-96) 465
где 1 — цУ1-Ра A5.97) с = 2? а коэффициенты ps и р определяются соотношениями A5.51) и A5.82). Если среднее значение б фазового сдвига 8 принимаемых сигна- сигналов A5.92) неизвестно, оптимальный приемник для различения двух федингующих сигналов должен выносить решение о приеме их (t) или и2 (t) на основе анализа простого выражения (рис. 15.7, б): При U < 0 принимается решение X — 0, в противном случае — А. = 1. Отметим, что при некогерентном приеме не требуется зна- знания отношения al/aN0. Суммарная вероятность ошибки при некогерентном приеме под- считывается по формуле A5.96), в которой а-\[ \ V 1-цр» V 1-цр* ^ГЕ^п A5.98) 15.7. На выходе УПЧ приемника амплитудно-манипулированных радиосигналов, схема которого представлена на рис. 15.8, имеет место смесь сигнала и шума х @ = Ч (*, ф1) + A - X) s2 (t, ф2) + I (t), где I (t) = X (t) cos &ot + Y (t) sin a>0 t — гауссовский квазигармонический шум с нулевым математиче- математическим ожиданием mj = 0 и корреляционной функцией Rl (т) = ог|р| (т) cos шот; h С <Pi) = Am cos (ш0^ + <Pi), s2 (<, ф1) = 0, ^ ^ ' — амплитудно-манипулированные радиосигналы. Начальная фаза Фг случайна и равномерно распределена на интервале (— я, я). x(t) УдЧ Преофа- зователб Линейнь/й &етентор оги&а/ощей Пороговое ycmpoucmffo Mo Рис. 15.8. Приемник AM сигналов со случайной начальной фазой 468 Параметр X представляет собой случайную величину, принимающую на интервале (О, Т) значения X = ^ = I или X = Хо =» 0 с апри- априорными вероятностями р (Xj) = р (Хо) = 1/2. Решение X = Хх при- принимается в тех случаях, когда значение огибающей U = U (Т), выделяемой линейным детектором огибающей, превышает порог Н. В противном случае принимается X = Хо. Определить оптимальный порог Но, минимизирующий суммарную вероятность ошибочных решений A5.28), и вычислить соответст- соответствующую ему суммарную вероятность ошибок. Решение. В соответствии с A5.28) суммарная вероятность оши- ошибок приема амплитудно-манипулированных сигналов Pl(U\X=Q) dU, A5.99) где Ч UAn — плотность распределения вероятностей огибающей суммы сигна- сигнала s1 (t, фх) и квазигармонического шума | (t); — плотность распределения вероятностей огибающей только шума \ (t). Подставляя pi(U\X{) в A5.99), находим A5.100) Взяв производную по Но от выражения A5.100) и приравняв ее нулю, получим уравнение, связывающее оптимальный порог Но с отношением сигнал/шум Ат1а? Н0Ат 1 3. ЗАДАЧИ И ОТВЕТЫ 15.1. На вход приемного устройства, оптимального по критерию идеального наблюдателя, воздействует аддитивная смесь х (t) = Я* @ + A - X) s2 (t) + I (t), A5.101) где 5 (t) — стационарный гауссовский белый шум с нулевым мате- математическим ожиданием mj = 0 и корреляционной функцией R{(x) = (No/2) б (т); Si (t) =*<4т cos ((а^ + фх), st (t) = 0, 467 о < t < т.
— детерминированные амплитудно-манипулированные сигналы. Па- Параметр X принимает значения Я = Хх = 1 или Я = Ко = О с вероят- вероятностями р (A.J = р (Хо) = 1/2. Вычислить суммарную вероятность ошибочного приема сигналов Sl @ и s2 @. Ответ: РАМ = 1 — Ф~\/~д/4, Ф(г); 1 I q = AS,T/N0 = 2E./N0. График функции РАМ = / (q) приведен на рис. 15.9. 15.2. Решить задачу 15.1 для случая оптимального приема де- детерминированных частотно-манипулированных сигналов sx (t) = Am cos (aj -f- Ф1), s2 (t) = Am cos (co2< + фа), при условии, что | coj — со^Г^ 1. Ответ: Рчм = 1 — Ф (Vq/2), q = A2mT/N0 = 2EIN0. График функции Рчм = / (q) приведен на рис. 15.9. 15.3. Решить задачу 15.1 дляслучая оптимального приема фа- зоманипулированных сигналов Si @ = Ат cos (oHt + ф0), s2 @ = Ат cos (aot + ф0 + я), ^ < • Ответ: Рфм = 1 — Ф ,„ ,,. График функции РФм = / (q) дан на рис. 15.9. 5Ю Рис. 15.9. Зависимость вероятно- вероятности ошибки от отношения сиг- сигнал/шум при оптимальном разли- различении детерминированных сигна- сигналов 468 15.4. На вход оптимального по критерию Котельникова—Зигер- та приемника воздействует колебание A5.101), где st (t) — детер- детерминированные тонально-манипулированные сигналы вида АМ-АМ: Si (t) = Ат [1 + т1 cos Qt] cos {a>ot + ф^, Q<t<T sa (t) = Am [1 + m2 cos Qt] cos (aot + ф2), ^ "" Вычислить суммарную вероятность ошибочного приема таких сигналов на фоне белого шума при условии равенства априорных вероятностей сигналов sx (t) и s2 (t). Предполагается, что период то- тональных колебаний Га = 2n/Q << Т и Q « и0. Ответ: Р АМ-АМ=1—1- , ., . . z-\-m1 Значения Рам-am = / (q) Для т± = 1 и т2 = 0 приведены на рис. 15.9. 15.5. Решить задачу 15.4 для случая оптимального приема де- детерминированных тонально-манипулированных сигналов вида ЧМ- АМ: Sj(O = Ат [1 + т cos QJ] cos (aot + фД s2 (t) = Am [1 + m cos Q2t] cos (aot + ф2), Предполагается, что тональные частоты Q,- <^ соо и, кроме того, период тональных колебаний Tq{= 2я/йг много меньше длитель- длительности Т сигналов st (t). О < t < Т. Ответ [104]: РЧм-ам = 1 -Ф 1/ +- 2+та Значения Рчм-ам = f (q) при т = 1 приведены на рис. 15.9. 15.6. Решить задачу 15.4 для случая оптимального приема де- детерминированных тонально-манипулированных сигналов вида ФМ- АМ: Sj (t) = Ат [1 + т cos Qt] cos (a>ot + ф^, s2 @ = Am [1 — m cos Qt] cos (aot + ф2), 0 t < Г. Ответ [104]: Рфм-ам = 1—( 2+m2 Значения Рфм-ам = f (9) Для /n = 1 приведены на рис. 15.9. 15.7. Определить суммарную вероятность ошибки при оптималь- оптимальном по критерию идеального наблюдателя приеме на фоне белого шума детерминированных тонально-манипулированных сигналов вида АМ-ЧМ: Si @ = Ат cos [aot + Pj cos Qt + ф^, s2 @ = Am cos [aot + p2 cos Qt + ф2], Ответ: Рдм-чм = 1 - Ф (Уя 11 - ^о (Эг—РгI/2), о < t < г. 469
0 < t < 71. где Jo (г) — функция Бесселя нулевого порядка первого рода. 15.8. Решить задачу 15.4 для случая оптимального приема де- детерминированных тонально-манипулированных сигналов вида ЧМ- ЧМ: Sj (t) = Ат cos [aiot + Р cos Qjtf + q>i\, s2 (t) = Am cos [aiQt + p cos Q2t + ф2], Ответ [104]: Рчм-чм= 1—Ф(У>[1 —У;(Р)]/2). 15.9. Решить задачу 15.4 для случая приема детерминирован- детерминированных тонально-манипулированных сигналов вида ФМ-ЧМ: Sj (t) = Ат cos [aiot + р cos Qt + - //\ — д [104]: P, m cos [ю0* — P cos at + q>2], = 1 — Ф 0 < < < T. l —У0Bр)]/2). 15.10. На вход радиоприемного устройства поступает колебание л @ = ^ (<, ф1) + A — Я) s2 (<, ф2) + Е (t), A5.102) где ё (/) — стационарный гауссовский белый шум с нулевым ма- математическим ожиданием т5 = 0 и корреляционной функцией #Е (т) = (^о/2) б (т); si (^. ф0 = ^m cos (ю0/ + ф1), 0 < / < Т, s2 (t, ф2) = 0, — амплитудно-манипулированные сигналы. Начальная фаза ц>! сиг- сигнала Sj (t, (fx) является случайной, равномерно распределенной на интервале (— я, я), и считается несущественным параметром. Пред- Предполагается, что входящий в A5.102) параметр X представляет собой случайную величину, принимающую значения X = kt = 1 или X — = Хо = 0 с равными априорными вероятностями р (Ях) = р (Хо) = = 1/2. Определить структуру оптимального по критерию Котельнико- ва—Зигерта приемника амплитудно-манипулированных сигналов с неизвестными начальными фазами и вычислить суммарную вероят- вероятность ошибочного приема. Ответ: Оптимальный приемник должен состоять из согласо- согласованного фильтра с импульсной переходной функцией h (t) — sx (T — — t), линейного детектора огибающей и порогового устройства с по- порогом h0, определяемым соотношением Суммарная вероятность ошибочного приема амплитудно-манипули- амплитудно-манипулированных сигналов при этом вычисляется по формуле PAM-[l + e-ft°/2-Q.(K?, Л0)]/2. Значения Рам = / (q) приведены на рис. 15.10. 470 Рис. 15.10. Зависимость вероятно- вероятности ошибки от отношения сиг- сигнал/шум при оптимальном разли- различении сигналов со случайной иа- чальиой фазой о го ио so 80 4 15.11. Вычислить суммарную вероятность ошибок при оптималь- оптимальном по критерию идеального наблюдателя приеме априори равнове- равновероятных частотно-манипулированных сигналов Sl @ = Ат COS ((Hit S2 @ = Ф1). - Фг). 0 < t < T, на фоне стационарного гауссовского белого шума | (t) с нулевым математическим ожиданием mg = 0и корреляционной функцией Rt (т) = (No/2) б (т). Случайные начальные фазы фх и ф2 сигналов sx (t, фх) и s2 (/, ф2) равномерно распределены на интервале (— я, я) и считаются не- несущественными параметрами. Предполагается, что | % — юа| Т > 1. Ответ: Рчм = A/2) е-?/4. Значения />чм=/(<7) приведены на рис. 15.10. 15.12. Решить задачу 15.11 для случая оптимального приема тонально-манипулированных сигналов вида ЧМ-АМ: cos (aot + Si (t) = Ат [1 + т cos Q^] cos (aot + ф0, Q<t< sa (t) = Am [1 + m cos Qa/] cos (©0/ + ф2), ^ ^ начальные фазы которых случайны и равномерно распределены на интервале (— л, л). Предполагается, что Q4 < ш0 и Го, = 2n/Qj С «Г. 471
Ответ: 1 где 2 2+m1 0=l/f ( И 4 V 1 Basi/_g_A У 4 \ 2+тг Значения Рчм-ам = f (9) для т = 1 приведены на рис. 15. 15.13. Решить задачу 15.12 для случая оптимального тонально-манипулированных сигналов вида ФМ-АМ: s± (t) = Ат [1 + т cos Qt] cos (a>ot + срЛ 0 < 7 = А cos cos cp2), 10. приема 71 Ответ: где 0|/ 4 2+ma ' К 4 2+ma График функции Аъм-ам = f (q) для m = 1 приведен на рис. 5.10. 15.14. На вход приемного устройства поступает колебание * (9 = *.»; @ + 0-*)«.(')+ 1@, где | (t) — стационарный гауссовский белый шум с нулевым ма- математическим ожиданием т?-= 0 и корреляционной функцией %(т) = (NJ2) б (т); и7 @ = ae-fts! (t) = аАт ехр [/ (<o0f — в)], «2 @ = 0, 0 < t < Г, — медленно федингующие амплитудно-манипулированные сигналы. Здесь а — амплитудный множитель, принимающий на интервалах @, Т) случайные значения с плотностью распределения вероятностей где у = а/Оф характеризует соотношение между детерминирован- детерминированной и случайной составляющими сигнала их (t) (см. пример 15.6). Начальная фаза 8 сигнала u^t) является случайной равномерно распределенной на интервале (— я, я) и считается несущественным параметром. Параметр К принимает значения Я = Я,х = 1 или К = = Яо = 0 с априорными вероятностями р (Кг) = р (йг) — р (к0) = = р (на) = 1/2. 472 Определить схему приемника, осуществляющего оптимальную по критерию идеального наблюдателя обработку колебания х (t), и вычислить соответствующую ей суммарную вероятность ошибоч- ошибочного приема. Ответ: Оптимальный приемник должен состоять из согласован- согласованного фильтра с импульсной характеристикой h (t) = sx (T — t), линейного детектора огибающей и порогового устройства с порогом /i0, определяемым из уравнения 1 L. ехр — А*-^ =ехр — q ) F \, 2 °2 + qJ F\ 2 При этом вероятность ошибочного приема вычисляется по формуле Рам=—\ 1 + ехр — — h% — Q v Для частного случая приема амплитудно-манипулированных сигналов, федингующих по закону Релея (у = 0), имеем где h0 определяется из уравнения Здесь q = Графики функций Рдм = h (q, v) и ho^= /2 (9. V) приведены соответственно на рис. 15.11 и 15.12. Через q обозначено отношение сигнал/шум, равное отношению удвоенного среднего значения Ъг= = М {Esi} энергии сигнала иг (t) к спектральной плотности шума 15.14. На вход приемного устройства поступает колебание где | (t) — стационарный гауссовский белый шум с нулевым матема- математическим ожиданием /яг= 0 и корреляционной функцией Яг(т) = {NJ2) б (т); Hi (t) = aAm ехр [/ (со^ — в)], 0 < t < Т, «2 @ = аАт ехр [/ (соа< — в)], — медленно федингующие частотно-манипулированные сигналы. 473
10° 5-Ю'' 0 W 60 80 q, Iff- 10 10' -3 I > ¦^--¦—. — \ .. 2_ 5 io~ w~ Рис. 15.11. Суммарная вероятность ошибочного приема AM сигналов со случайными амплитудой и начальной фазой Рис. 15.12. Зависимость оптимально- оптимального порога от отношения сигнал/шум при приеме AM сигналов со случай- случайными амплитудой и начальной фазой A IS 5 Z w To ¦1 - о го /97 80 q. Здесь аиб — амплитудный множитель и фазовый сдвиг, принимаю- принимающие на интервалах (О, Т) случайные значения с совместной плот- плотностью распределения вероятностей (см. пример 15.6) p2(a,( (_JL ехр Г— )= 2па| FL 2 [ 0 оф при других аиб. Параметр Я принимает значения Я = ^ = 1 или Я = Яо = 0 с ап- априорными вероятностями р (kt) = р (к0) = 1/2. Приемное устройство осуществляет оптимальную по критерию идеального наблюдателя обработку принимаемого колебания х (t). Вычислить соответствующую ей суммарную вероятность ошибочного приема для случаев априори известного среднего значения /ле= = M{Q} фазового сдвига 6 (квазикогерентный прием) и неизвест- неизвестного среднего значения те (некогерентный прием) при условии К— «2| О> 1- Ответ: Рчм = Q (ас, be) —¦ ехр (а2+Ьг) с2 /0 (abc2), 4+7 L 2 J где для квазикогерентного приема 474 а для некогерентного приема а = 0, b = VJ, с = yVq!2 D + д). Графики функции Рчм = / (<7> у) Для случаев квазикогерент- квазикогерентного и некогерентного приема медленно федингующих частотно- манипулированных сигналов приведены на рис. 15.13, а и б. 15.16. Решить задачу 15.15 для случая оптимального приема медленно федингующих фазоманипулированных сигналов U! (t) = аАт ехр [/ (со0* — 6)], «2 (t) = аАт ехр [/ (oi0t + я — 6)], S Ответ: При квазикогерентном приеме „i_lV при некогерентном приеме РФМ = 1/2. График функции Рфм. = / (9. т) Для случая квазикогерент- квазикогерентного приема приведен на рис. 15.14. 5-10 10" 5-ГО го I/O so so -7 10 -1 -3 10' 10' X 160* —т. сю ===== \ \ уг=О ' Г —-—_ 5 ч Рис. 15.13. Зависимость суммарной вероятности ошибок от отношения сиг- сигнал/шум при квазикогереитном (а) и некогереитиом (б) приеме медленно федиигующих ЧМ сигналов 475
10' 5Ю~ 10~ 2ff UO ffff 80 10 W ~ -3 "*- \ уг=0 г 5 __ 10 Рис. 15.14. Зависимость суммарной вероятности ошибок от отношения сигнал/шум при квазикогереитном приеме медленно федингующих ФМ сигналов 15.17. Решить задачу 15.15 для случая оптимального приема медленно федингующих тонально-манипулированных сигналов вида ЧМ-АМ и1 @ = аАт [1 + cos QJ] ехр [/ (aot — 6)], м2 (t) = аАт [1 + cos Q2t] ехр [/ (aot — в)], при условии Q; С «о- ^Щ = 2я/йг < Т. Ответ: При квазикогерентном приеме i = Q(ас, bc)-~bехр Г —1-(а2 + Ь2)с2] /0(abc% где а=1 — V5? =-; 6=1+- 1/5? 42 ' при некогерентном приеме E где Графики функций Рчм-ам = f (9, т) для случаев квазикогерент- квазикогерентного и некогерентного медленно федингующих тонально-манипу- тонально-манипулированных сигналов вида ЧМ-АМ приведены на рис. 15.15, а и б. 15.18. Решить задачу 15.17 для случая оптимального приема медленно федингующихся тонально-манипулированных сигналов вида ФМ-АМ: нх (О = аАт [1 + cos Qt] ехр [/ (wot — в)], «7@ = аАт [1 — cos Ш] ехр [/ (aot — в)], Ответ: При квазикогерентном приеме = Q (ас, be) - y ехР [ —\ ^ 0 < t 10 40 ffO SO q о го ио 60 во д 476 Рис. 15.15. Зависимость суммарной вероятности ошибок от отношения сиг- сигнал/шум при квазикогерентном (а) и некогерентном (б) приеме медленно фе- федингующих ЧМ-АМ сигналов 477
где 2 T/2 при некогерентном приеме ;_Q(«. *,--!.I l + ;75iV»i. е-: I0(abc*), где «=У ! 9D+5)-* "' 6~К -T<l- 9D+?)-9 Графики функций /Wam = f (<7, T) Для случаев квазикогерентного и некогерентного приема приведены на рис. 15.16, а и б. Ш ,0 20 40 SO 80 -/ 10 -1 10 -г 10 -3 10 -¦* -5 10 РфМ-АМ k 16<X\ ^= ^^ \ , \ — — z k-—. 5 ¦ 10 \|? Ю Рис 15 16 Зависимость суммарной вероятности ошибок от отношения сиг- нал/шум при квазикогерептном (а) и некогерентнои (б) приеме медленно федингующих ФМ-АМ сигналов 478 15.19. На вход приемного устройства поступает колебание X(t)~s (t) + I (t), где — один из т возможных сигналов sx (9, ¦-. sm (t), причем если Л- = l то все остальные Я,, = 0 (/ Ф i). Предполагается, что апри- априорные вероятности р (s,) присутствия сигналов st (t) в реализации x(t) априори известны и равны: Р (h) = Р (s2) = - = Р ^ а сами сигналы s, (9 полностью определены на интервале (О^Г) и равны нулю вне этого интервала, имеют равные энергии^ - ? и ортогональны: [•.««<»*-{*?}: Аддитивная помеха g (9 представляет собой стационарный гауссов- ский белый шум с нулевым математическим ожиданием mE — U и корреляционной функцией /?Е (т) = (ЛГ0/2) б (т). Определить структурную схему приемника, осуществляющего оптимальное по критерию идеального наблюдателя различение m-ичных сигналов st (t), и вычислить соответствующую ему суммар- суммарную вероятность Р ошибочного приема. Ответ: Приемник должен сформировать величины о и осуществить их сравнение. Решение Xt = 1 принимается, если Ut == ?/max (рис. 15.17). При этом суммарная вероятность ошибоч- ошибочного приема 15.20. Решить задачу 15.19 для случая приема m-ичных детер- детерминированных сигналов Si (9 на фоне аддитивной гауссовской стационарной помехи I (9 с нулевым математическим ожиданием и. = 0 и корреляционной функцией R$ (т). Ответ: Оптимальный приемник для различения m-ичных сиг- сигналов на фоне коррелированного шума должен сформировать слу- случайные величины 479
где $i (t) есть решение интегрального уравнения j Д6 (А,-/) 0, (A,)d* = S|@, о и осуществить их сравнение. Решение Xt = 1 принимается, если Ui =' Umax- При этом суммарная вероятность ошибочного приема oo ,-«•/3 где <т5 = 15.21. На выходе УПЧ синхронного приемника (рис. 15.18) имеет место колебание х @ = А* @ + A - X) s2 @ + I (О, где ? @ — квазигармонический гауссовский шум с нулевым мате- математическим ожиданием mj = 0 и корреляционной функцией #Е (т) = af pg (т) cos со 0 т; Sl @ = Лт COS (<oo t + фх), s2 @ = О, t — детерминированные амплитудно-манипулированные сигналы. На второй вход синхронного детектора подается колебание от местного гетеродина иг @ = Ur cos (aot + фх). Если напряжение U @ на выходе синхронного детектора превышает некоторый по- порог Но, принимается решение о приеме сигнала s1 (t) (X = 1), в про- противном случае принимается решение о приеме сигнала s2 (t) (X — 0). Априорные вероятности р (s,) присутствия на входе приемника сиг- сигналов st @ равны между собой: р (sx) = p (s2) = 1/2. X X \sift) X Рис. 15.17. Оптимальный приемник m-ичных сигналов 480 ь xCt) t/W U>fie —Л УВЧ —* Преод~ра- зовсгтель УЛЧ Синхроть/й детектор Гетеродин 1. Пороговое истройство Но и<н0 Рис. 15.18. Синхронный приемник Определить суммарную вероятность ошибочного приема при условии, что порог #„ выбран оптимальным по критерию идеаль- идеального наблюдателя. Ответ: Р = 1 — Ф (Лт/2а6), Я„ = AJ2. 15.22. Решить задачу 15.21 для случая приема фазоманипули- рованных сигналов Sl @ = Ат COS (tiHt + фх), @ = Ат COS ((O0t + фх + Л), 0< Ответ: Р = 1 — Ф (Лт/сг?), Яо = 0. 15.23. На выходе УПЧ приемника, схема которого представлена на рис. 15.8, имеет место колебание х @ = *Ul @ + О — *) «г @ + ? @. где ? @ — квазигармонический гауссовский шум с нулевым мате- математическим ожиданием т\ = 0 и корреляционной функцией (т) = а\ Р|(т) cos юот; = (/ @ cos [(o0t + Ф @1. «2 @ = 0, о < t < г, — амплитудно-манипулированные сигналы. Сигнал их @ представляет собой отрезок квазигармонических флуктуации, огибающая которых распределена по закону Релея: Pl (U) = (Ulol) exp (— W/ol), U^0, а случайная начальная фаза — равномерно на интервале (— я, я). Параметр X принимает значения X = A.x = 1 или X — Хо = = 0 с априорными вероятностями р (кг) — р (к0) = 1/2. Если процесс U @ на выходе линейного детектора огибающей превышает некоторый порог Но, принимается решение X ¦= 1, в противном слу- случае принимается X = 0. Определить суммарную вероятность ошибок при условии, что порог #0 выбран оптимальным по критерию идеального наблюдате- наблюдателя. 16 з«к. 1203 48J
Ответ: где Г 15.24. Найти структурную схему приемного устройства, осу- осуществляющего оптимальную по критерию Неймана—Пирсона обра- обработку колебания х @ - Ks (t) + Б (t), где ? @ — стационарный гауссовский шум с нулевым математиче- математическим ожиданием т\ = 0 и корреляционной функцией s (^ — детерминированный сигнал, определенный на интервале (О, Г) и равный нулю вне его. Ответ [961: Оптимальный приемник должен сформировать ве- величину и сравнить ее с порогом h0, определяемым заданной вероятностью ложной тревоги РР, = 1 — Ф (ho/ao), где т Оп = -7Г5Г Если U> h0, принимается решение Я, = Ях = 1, в противном слу- случае принимается К — %0 = 0. Вероятность правильного обнаруже- обнаружения вычисляется по формуле «о 15.25. Решить задачу 15.24 для случая, когда корреляционная функция шума имеет вид sin ohI ^2— 482 Ответ [96]: Оптимальный приемник должен сформировать ве- величину = «I а = 2о, и сравнить ее с порогом hB, определяемым заданной вероятностью ложной тревоги PFl = 1 - Ф (А,/<тв), где 'о* При U > h0 принимается Я = Ях = 1, в противном случае прини- принимается % = %о = 0. Вероятность правильного обнаружения вычис- вычисляется по формуле Яо, = 1 — Ф (ho/ao — а0). 15.26. На вход оптимального по критерию Неймана—Пирсона приемника поступает колебание х (t) — %и (t) + ? (t), где ? (?) — стационарный гауссовский белый шум с нулевым математическим ожиданием т$ = 0 и корреляционной функцией ЯЕ (т) = (tf ./2) S (т); ы(/)= аЛт cos (ш0 — медленно флуктуирующий сигнал. Здесь Лп: и со0 — посто- постоянные величины, 9 — случайная начальная фаза, равномерно рас- распределенная на интервале (— я, л), a — амплитудный множитель, принимающий на интервале @, Г) случайные значения с плотно- плотностью распределения вероятностей Р\ (а) = (а/Оф) ехр (— a2/2a|), 0 < a < оо. Вычислить вероятность ложной тревоги и правильного обнаруже- обнаружения. Ответ: 2Е График функции тирные линии). = f (q) приведен на рис. 15.4 (штрих-пунк- (штрих-пунк16* 483
16. ОЦЕНКА ПАРАМЕТРОВ СИГНАЛА 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Пусть иа некотором временном интервале (О, Т) имеется реализация т] (/) суммы полезного сигнала s (tlt Хг, Я2, ...). зависящего от нескольких параметров klt Я2, .... и гауссовского стационарного шума ? (t): г] (t) = s (/, klt Я2, ...) + 1 @, 0 < t < T. A6.1) Предполагаются известными следующие сведения: 1) гауссовский ста- стационарный шум \ (t) имеет нулевое математическое ожидание и известную корреляционную функцию: М{1 (t)} = 0, М{1 (*,) \ (*,)} = - к A6.2) 2) вид сигнала s (t, klt Я2, ...) задан и он полиостью расположен внутри ин- интервала наблюдения (О, Т), так что значения сигнала и его произгодиых на концах этого интервала равны нулю; 3) до наблюдений ориентировочно из- известны априорные плотности вероятности параметров Ях, Я2, ... Для интересую- интересующих нас параметров в дальнейшем они полагаются равномерными в неко- некотором интервале значений. Путем обработки принятого колебания ц (/) нужно найти предельную точ- точность оценки одного или нескольких параметров Я;. Обработка принятой реализации может осуществляться в дискретном или непрерывном времени. В первом случае обычно используются равноот- равноотстоящие отсчеты реализации т^ — т] (Д), t]2 =¦ ц BД), ..., т]т — ц (Т/т), называемые в совокупности выборкой объема т; во втором случае исполь- используется вся реализация т] (/) иа интервале (О, Т). Пусть истинное значение параметра Я; постоянно и paino К;о, а его оценка по принятой реализации есть Я*. Оценка\ из-за наличия шума будет случайной величиной, изменяющейся от одной реализации к другой. В качестве определяющих можно взять разные характеристики случай- случайной величины Я;. В зависимости от этого рассматривают точечные и иитер!аль- иые оценки. При точечных оценках интересуются главным образом математиче- математическим ожиданием и дисперсией случайной величины Я;. Интервальная оценка сводится к вычислению интервала, в котором с заданной вероятностью за- заключено значение оцениваемого параметра. В дальнейшем рассматривают- рассматриваются только точечные оценки. Оценка Я; называется несмещенной, если М{Я;} = Я;о; в противном случае (УИ{Я,} Ф ki0) оценка называется смещенной. Разность ДЯ = = УИ{Я;} — Я;о называется смещением или систематической ошибкой оцен- оценки. Несмещенная оценка, имеющая наименьшую возможную дисперсию Of c=min М ((Я.— Я.оJ j, A6.3) называется эффективной. Конечно, всегда желательно получить эффектив- эффективную оценку. В том случае, когда полезный сигнал s (t, к) зависит от одного оценивае- оцениваемого параметра Я и его оценка производится по выборке {r^, t]2, ..., Цт} объе- объема т, можно доказать, что дисперсия несмещенной оценки имеет нижнюю гра- границу, определяемую следующим неравенством Рао—Крамера: t]m; X) где рт (ть значений. A6.4) ..., tim; Я) — совместная плотность вероятности выборочных 484 Если выборочные значения r\lt r\2, ..., г\т независимы в совокупности, пра- правая часть неравенства A6.4), определяющая минимально возможное значение дисперсии несмещенной оценки, принимает вид [105] H-1 ' Г Г /J ~ т[М{ A6.5) где для непрерывной случайной величины г\ М p ft; Я) дк оо '-Л a in р оо -л A6.6) М г а для дискретной случайной величины ах I /=_оо др (т.,-; ая ОЩ* ,.к)== р(т; Я) A6.7) Когда полезный сигнал s (t, klt к2) зависит от двух параметров Ях, Я2 и оценка их производится по независимой выбпрке объема т, формулы для минимальных дисперсий оценок и нормированной корреляционной функции между оценками имеют вид ?>„- , min тМ л2 mm a In р (т); ki, X2) тМ М In j, 12) ain I 1, h) A6.8) [-{¦ a In p (ti; Я.1, Я2) дкл у м f a in р (Л; къ J i дк2 • ? \ 12-11/2 Для получения оценок могут применяться разные методы: метод момен- моментов, по математическому ожиданию апостериорного распределения, по мак- максимуму апостериорного распределения, метод максимального правдоподобия и др. [6, 106]. Наиболее часто используются метод максимальной апостериор- апостериорной плотности вероятности и метод максимального правдоподобия. По предположению, значения оцениваемых параметров Х1Р Я2, ... постоян- постоянны иа интервале наблюдения. Используя тот факт, что шум в A6.1) гауссов- гауссовский, можно найти совместную плотность вероятности для выборки (ti,, г]2. •••» iim) и параметров Ях, Я2, ... Я2, ...)=ро(Яь i tin,). 485
Остюда получаем формулу Байеса для условной плотности вероятности р(^, А.а, — I -пх r)m)=kpo(\1, А,я )p(T)i г)т\ХиХ2,...), A6.9) где коэффициент k определяется из условия нормировки: При решении ряда практических задач до проведения наблюдений с боль- большей или меньшей степенью достоверности бывает ориентировочно известна плотность вероятности оцениваемых параметров р0 (Х\, Х2,...), которую назы- называют априорной (доопытной). Условная плотность вероятности р (Лх, Хг, ••• I Ль •••.Лт) называется апостериорной (послеопытной) плотностью вероятности параметров Klt K2, ¦¦¦ При данной выборке она дает полные сведения об ин- интересующих нас параметрах. Условная плотность вероятности р (r]i, ..., timl^j, Х2, •••)> рассматриваемая как функция параметров Ях, А,2, ..., называется функцией правдоподобия. При извлеченной выборке (без учета априорного распределения р0 (к1г Х2, ...) она показывает, насколько одни возможные значения параметров Хъ Х2, ... более правдоподобны, чем другие. В методе максимальной апостериорной плотности вероятности в каче- качестве оценок Кх> Х2, ... параметров Xlt Х2, ... берутся те значения, при кото- которых для данной выборки (гц, ..., т)т) апостериорная плотность вероятности имеет абсолютный максимум. Эти значения являются решениями системы уравнений ) = 0, i = l, 2,... A6.10) Эти решения должны явным образом зависеть от результатов выборки и обеспечивать получение абсолютного максимума апостериорной плотности ве- вероятности. Так как логарифм — однозначная и монотонно возрастающая функция аргумента, то результат максимизации апостериорной плотности вероятности и логарифма от нее совпадают. Поэтому вместо уравнения A6.10) можно ис- искать соответствующие корни уравнения dlt , Х2 |гЦ,..., T]J=0, 1 = 1, 2,... A6.11) Во многих практических случаях априорная плотность вероятности р0 (Хъ %2, ...) оказывается неизвестной и ее полагают равномерно распределен- распределенной (например, прямоугольной или нормальной с большой дисперсией) на интервале возможных значений параметров. При этом координаты максимума апостериорной плотности вероятности будут совпадать с соответствующими координатами функции правдоподобия, которые определяются путем реше- решения системы уравнений правдоподобия , 12 h,...) = = 1, 2, 3... или где ...,?,-,...) = 0, i = l, 2, 3,... A6.12) 1(&1, ».„...)=Р D1 imUl, »,,...)• A6ЛЗ) Решения должны явным образом зависеть от результатов выборки и обес- обеспечивать получение абсолютного максимума функции правдоподобия (или ее логарифма). 486 В большинстве радиотехнических задач, связанных с оценкой параметров, преимущественно используется метод максимального правдоподобия. Это объясняется рядом достоинств оценок, получаемых этим методом, а также сравнительной простотой вычислений и практической реализации соответст- соответствующих алгоритмов в виде измерительных устройств [107, 108]. В частности, при оценке одного параметра получаемая оценка оказывается асимптотиче- асимптотически (при очень большом объеме выборки) эффективной. Перечислим теперь исходные условия, выполнение которых предполагается в дальнейшем, и за- затем в справочном виде приведем конечные формулы для дисперсии оценок [108] при обработке непрерывной реализации r\ (t). 1. В реализациях х\ (t), подлежащих обработке, отношение сигнал/шум настолько велико, что неоднозначность оценки практически исключена. 2. Рассматривается оценка лишь одного какого-либо известного параме- параметра А; полезного сигнала s (t, Xlt Х2, ...). Априорная плотность вероятности этого параметра Xj принимается равномерной в некотором интервале значе- значений. Остальные параметры сигнала считаются или все известными (так на- называемый полностью известный сигнал, за исключением оцениваемого пара- параметра) или же радиосигнал s (t, Klt K2, ...) имеет случайную начальную фазу, равномерно распределенную в интервале (— я, я) (сигнал со случайной на- начальной фазой). В дальнейшем рассматривается в основном случай пол- полностью известного сигнала. Однако ряд полученных результатов остается справедливым и для радиосигналов со случайной начальной фазой. Параметры Xt (амплитуда, длительность импульса), от которых зависит энергия сигнала, называются энергетическими; остальные параметры (ча- (частота, время появления, фаза и др.) — неэнергетическими. 3. В дальнейшем рассматриваются три частных вида гауссовского ста- стационарного шума '| (t): белый шум с корреляционной функцией Яо (<i - h) = N06 (/, - tx)l2, экспоненциально-коррелированный шум *i('i-'i)= о» ехр(-о |/.-^l), узкополосный шум с корреляционной функцией ) = а2 exp (-a | t2-h \)\ cos щ L — sin Шх | t2 A6.14) A6.15) A6.16) Прн указанных трех условиях оценки неэнергетических параметров сиг- сигнала, а также его амплитуды оказываются несмещенными. Дисперсия оценки неэнергетического параметра X полностью известного сигнала s (t, X) определяется формулой [108] о{ = где л0 — истинное значение оцениваемого параметра; Г = [s(t, lo)v(t, l)dt. A6.17) A6.18) Для гауссовских стационарных шумов с корреляционными функциями A6.14)—A6.16) функция v (t, К) соответственно равна d*s(t,X) A6.19) A6.20) 487
v2(t, Я) = X 4аюg а' , Я.) d*s(t, Л» dt* A6.21) Дисперсия оценки «амплитуды» а полностью известного сигнала вида s (t, а) = a s0 (t), где s0 (t) — нормализованный сигнал, равна °а= I «о @ "'(О А • A6-22) Здесь функция v' (t) определяется прежними формулами A6.19)—A6.21) с заменой в правых частях s (t, К) на s0 (t). 2. ПРИМЕРЫ 16.1. Случайная величина X принимает два значения 1 и 0 с вероятностями Р {х = 1} = X, Р {х = 0} = 1 — X. Пусть в ре- результате т испытаний исход х = 1 осуществился k раз, а исход х = 0 осуществился т — k раз. Требуется получить оценку вероят- вероятности X по результатам опыта. Решение. В данном примере функция правдоподобия определяет- определяется биномиальным распределением L (X) = Xk A — X)m~k. Урав- Уравнение правдоподобия принимает вид In L (X) = = 0. д% 1 —А, Отсюда получаем решение X = klm. Следовательно, оценкой вероят- вероятности Р {х = 1 } = X является относительная частота klm исхода х = 1. Для нахождения минимальной дисперсии оценки воспользуем- воспользуемся формулами A6.5) и A6.7). Так как др/дХ = 1 при х = 1 и др/дХ = — 1 при .г = 0, д\пР{х-Л)у_ 1 ах ( X 1—А. Л. A — Л.) Поэтому 16.2. Некоторая нормально распределенная случайная величи- величина X измеряется независимо двумя неравноточными приборами, ко- которые осуществляют измерения без систематических ошибок, но с разными дисперсиями D1 и D2- Нужно указать результирующую погрешность измерения случайной величины X. Решение. Обозначим показания первого и второго приборов соответственно через г^ и х\2. Можем записать r\t = X + ^, ti2 = = X + ?2, где ?i и ^2 — независимые нормально распределенные случайные величины с нулевыми математическими ожиданиями и дисперсиями D± и D2. 488 Нетрудно убедиться, что функция правдоподобия случайной ве- величины X определяется выражением 1 • exp Уравнение правдоподобия принимает вид д \nL(%)= = 0. Отсюда находим Я,= ¦%¦ По известным правилам получаем дисперсию такой оценки D? = D.DJiD, + D2). 16.3. Вычислить дисперсию оценки амплитуды а прямоуголь- прямоугольного радиоимпульса s (t, а) = a cos (at + ср0), 0 < t0 < t < t0 + ти < Г, соГ » 1, A6.23) принимаемого на фоне гауссовского стационарного шума с корре- корреляционной функцией A6.15). Решение. Рассматриваемый радиоимпульс равен нулю на кон- концах интервала наблюдения @, Т). Для него функция v' (t), входя- входящая в формулу A6.22), определяется выражением A6.20) и равна v @ Подставив эту функцию v' (t) в формулу A6.22) и выполнив инте- интегрирование, при условии соТ > 1 получим ати VA/э Д/э где А/э = а/4 — эффективная ширина спектра шума; Д/ — шири- ширина основного «лепестка» спектра радиоимпульса. 16.4. Определить дисперсию оценки разности т = %1 — т2 вре- временных положений двух неперекрывающихся радиоимпульсов Si (t — тх) = aj (t — Xj) cos (co^ + фО, s2 (t — т2) = a2f (t — т2) cos (at + cp2), принятых на фоне белого шума п (t) в интервале времени @, Г), причем аТ > 1. Функция / (^ — тг) описывает огибающие радио- радиоимпульсов. 489
Решение. Если обозначить через бт и б2 соответственно случай- случайные ошибки определения i1 и т2, то дисперсия оценки разности б = бх — б2 определяется соотношением где DXl и DXt — дисперсии раздельных оценок тх и т2; г12 — нор- нормированная корреляционная функция совместной оценки т, н т2. Так как импульсы не перекрываются, то г12 — 0 и Dx=DXl+Dx,. A6.24) Слагаемые в правой части A6.24) находим по основной формуле A6.17), причем для белого шума в A6.18) нужно подставлять функ- функцию v (t, tj), определенную соотношением A6.19). Следовательно, можем написать , г = 1,2. A6.25) Можно показать [108], что этот результат приводится к виду 1 A6.26) A6.27) где Et= \-sf(t-xt)dt — энергия радиоимпульса s; (t — т;), = Г J J" F(/co) = A6.28) A6.29) — комплексный спектр огибающей / (/)• Вычисления по формуле A6.28) для огибающей гауссовой фор- формы f (t) = exp (— 2,8*2/т;1), где ти — длительность импульса на уровне 0,5 от максимального значения, приводят к следующему ре- результату: р2 = 2,8/т|. Применительно к гауссовым радиоимпульсам формула A6.24) при ах = а2 = а принимает вид Е = Л. J*!ia_ = o,37aa ти. A6.30) 5( о 2 490 3. ЗАДАЧИ И ОТВЕТЫ 16.1. Имеется последовательность N независимых испытаний, в каждом из которых интересующий нас исход наступает с постоян- постоянной, но неизвестной вероятностью р. Пусть п — наблюдаемое число положительных исходов. Каково наиболее правдоподобное значе- значение р? Ответ: р = nIN. 16.2. Оценить параметр X в законе распределения Пуассона Xх р (х, X) = е~\ пользуясь выборкой, которая для случайной х\ величины X дала значения xv x2, ..., хп. Ответ: Х = — 16.3. Показания пх, п2, ..., п^ каждого из N счетчиков распре- распределены по закону Пуассона. Известно, что средние значения М {nt} = = Xtt, i = 1, 2, ..., N, где X — неизвестная интенсивность; tt — отдельные временные интервалы счета. Найти оценку интенсив- интенсивности к. Ответ : л= N nt N 16.4. Случайная величина Ь, имеет нормальную плотность вероят- вероятности с известным математическим ожиданием т и неизвестной дисперси- дисперсией D. В результате наблюдений получены п независимых значений ?х, Е2, ..., lv случайной величины ?. Найти правдоподобное значение дисперсии D. Будет ли полученная оценка несмещенной? Ответ: Ь — — оценка несмещенная. 16.5. В тех же условиях, что и в задаче 16.4 неизвестны и подле- подлежат оценке математическое ожидание т и дисперсия D. Смещенными или несмещенными будут оценки максимального правдоподобия? Ответ :т=~ п D = — У (g, - mJ Оценка математического ожидания несмещенная, так как М{т— — т) = 0, а оценка дисперсии смещенная, так как М0\ = = D(n— \)ln. 491
16.6. Найти дисперсию оценки амплитуды а гауссова импульса 2,8 -т0J, 0<т0<7\ s(t,a) = принимаемого на фоне гауссовского стационарного шума с экспо- экспоненциальной корреляционной функцией A6.15). 4а2 Ответ : а2а = = 2,67- 2л I [ 2,8 ,8 + (атиJ 16.7. На фоне одного и того же белого шума п (t) раздельно при- принимаются прямоугольный и гауссов радиоимпульсы sx (t, a) = a cos (со* + ф0), 0 < t < t + rm < T, s2 (t, а) = oe-v('-t.)'cos [со (t — т0) + ф0], 0 < т0 Т. Найти предельную точность измерения амплитуды а таких радио- радиоимпульсов, считая, что они практически полностью расположены внутри интервала (О, Г). Сравнить результаты при равенстве энер- энергий радиоимпульсов, т. е. при условии J s\(t,a)dt= j sl{t,a)dt. / — : о\а = Nn Ответ: а?а = —-, а\а —  г при ти .= 16.8. Вычислить дисперсию оценки параметра т радиосигнала s(t, т) = а0 A + m cos Qf) cos (at + ф0), 0<^< Г, иГ» 1, при- принимаемого на фоне белого шума п (t). Ответ : 2Л^„ Г = —— sin2Qri-1 2QT \ 16.9. Прямоугольный радиоимпульс A6.23) принимается на фоне узкополосного шума A6.16). Найти дисперсию оценки ампли- туды а. Рассмотреть частный случай, когда со = со0 = l^co? + a2. Ответ : о\ — 8аш§ а2 Оа2 при со = (со2 — wJS)+4a2 со2 16.10. На фоне белого шума п (t) принимается радиосигнал s (t, ф) = U @ cos Ы + Ч> @ + ф], 492 где t/ (<) И1|з (t) —законы амплитудной и фазовой модуляции. Опре- Определить дисперсию оценки неизвестной начальной фазы ср. г Ответ: ol= 1-—, ?=— [u2(t)dt, соГ>1. Ф BE/N0) 2 J W о 16.11. Вычислить дисперсию оценки временного положения т0 гауссовского импульса S(t,X0) = t при оптимальном приеме на фоне белого шума. Предполагается, что весь импульс практически находится внутри интервала наблюдения 0П Ответ: а| = !5 ?= Г s2(^ Tl) 2,8BE/N0)' J *- 5>6 16.12. Решить задачу 16.11 для случая, когда прием гауссова импульса производится на фоне экспоненциально-коррелирован- экспоненциально-коррелированного шума A6.15). При каком условии ответы к задачам 16.11 и 16.12 совпадают? Ответ: о?, = 4ст2т21/5,6а?, yvo = 4а2/а. 16.13. На фоне белого шума п (t) принимается прямоугольный радиоимпульс s (t, Q) = a cos [(со + Q) t + ср0], 0 < ти. Найти предельную точность измерения смещения частоты Q. Ответ: т т2 BE/N0) J 2 " У о 16.14. Решить задачу 16.13 для гауссова радиоимпульса ], 0<то<7. Сравнить результаты для прямоугольного и гауссова радиоимпуль- радиоимпульсов при равенстве их энергий. Ответ: аё?—- 11,2 = 3,7 'т- 493
16.15. Решить задачу 16.13 для случая, когда прямоугольный радиоимпульс принимается на фоне экспоненциально-коррели- экспоненциально-коррелированного шума A6.15), считая возможные значения Q много меньше к». Ответ : Oq — . 2ат??[1+(ш/аJ] 16.16. Вычислить дисперсию оценки параметра р радиосигнала s (t, р) = a cos (at + Р cos Q* + ср0), 0 < t < Г, принимаемого на фоне белого шума. Предполагается, что возмож- возможные значения р много меньше к» и «Г > 1. Ответ: 2E/N0 2QT J 2?/ЛГ„ 16.17. Определить дисперсию оценки небольшого смещения ча- частоты Q прямоугольного радиоимпульса s (t, Q) = a cos [(ю + О) < + ФО1. О < * < ти, принимаемого на фоне флуктуационного шума с корреляционной, функцией A6.16), в которой щ = ш0 Э а- Предполагается, что допустимые значения Q значительно меньше со. Ответ: = ~ a2xa, шти>1. Раздел у ТЕОРИЯ ИНФОРМАЦИИ 17. ДИСКРЕТНЫЕ СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Дискретные (цифровые) системы связи — системы, в которых как реа- реализации сообщения, так и реализации сигнала представляют собой последо- последовательности символов алфавита, содержащего конечное число элементарных символов [1]. Пусть xi, i = 1, 2, ..., п, — совокупность возможных различных неза- независимых элементарных символов алфавита на входе системы, ayj, j = 1, 2, ..., ..., т — совокупность символов на ее выходе; р (*;) — априорная вероят- вероятность символа хс, р (tjj) — вероятность появления символа у; на выходе системы; р (*;, yj) — совместная вероятность появления на выходе системы символа yj, если на входе был символ Xi\ p (jct-1 yj) — апостериорная вероят- вероятность символа *;; p(yj\Xi) — условная вероятность появления на выходе системы yj, при условии, что на входе был символ *,-. Для этих вероятностей выполняются соотношения = Ь A7.1) 2 /=1 1=1 2 /=1 Тогда собственная информация символа ставляемое самим символом xi или любым ным) определяется формулой xi (количество информации, до- додругим однозначно с ним связан- связанi = — log p (xt). A7.2) Другие понятия информации определяются следующими соотношениями: — условная собственная информация символа xi рри известном yj = —^g p(xt\ A7.3) — взаимная информация двух случайных символов относительно друг друга (количество информации относительно символа *,-, доставляемое yj A7.4) A7.5) собственная информация совместного события (*,, yj) I (xi, yj) - — log p (xi, у,У. 495
— среднее количество информации, доставляемое принятым символом У] етнесительно множества всех передаваемых симвелов X = {xt}. 1 = 1,2 п, п п ( I У}) (X; yj) = 2 ; (**: Уз) Р (*i I Уз) = ^ р (xi | у}) log A7.6) — среднее количество взаимной информации по множеству символов Y ¦= {yj}, j = 1, 2, ..., т, при фиксированном *j ,; Y) 2 /=1 р(wI p (=/./) iL. A7.6a) — полное среднее количество взаимной информации в множестве сим- символов Y относительно множества символов X )- A7.7) При решении большинства задач, связанных с построением систем пе- передачи- и преобразования информации, наибольший интерес представляет ве- величина / (X; Y). Если символ xi статистически связан не только с символом yj, ио и с третьим символом Zft, ft = 1,2 I, то при известных вероятностях р (Х(, yj Zfc) условная взаимная информация равна Zft) A7.8) когда где / (хг; i/; I Zft) — количество информации, доставляемое 4^ o предварительно известен символ z^. Единица количества информации определяется выбором основания лога- логарифмов. Когда используются логарифмы при основании два, то количество информации / измеряется в двоичных единицах (дв. ед., или бит). Переход от одной системы логарифмов к другой равносилен простому изменению еди- единицы измерения информации. Этот переход осуществляется по формуле l ft = logb a ¦ loga ft. Для количества информации справедливы следующие соотношения: Xi\ У})=1 (Xi) — / (*«. yj) = ' (xt) + I (yj) - I (xt\ y}), I (X; yj) > 0, / (xt; Y) > 0, I (X; Y) = / (Y; X) > 0, / (X; Y, Z) - / (X; Y) + I (X; Z \ Y), / (Y, Z; X) - / (Y; X) + I (Z; X\ Y). 496 (Xi; yj\zh), A7.10) Xt) = A7.11) A7.12) A7.13) A7.14) A7.15) A7.16) По аналогии со средней взаимной информацией, средняя собственная иифермация определяется формулой (xt)=fi(X), A7.17) где Я (X) — энтропия дискретной случайной величины X, определяющая ко- количественную меру неопределенности о сообщении до его приема. Для энтропии справедливы следующие выражения: Н (Y | X) = - , yj) logp (yj I Jff) = A7.18) -2 2 i/i «• W) m 2a" 2 A7.19) A7.20) Я (X, Y) = H (X) + H (Y \ X) = H (Y) + H (X\ Y), A7.21) где Я (Y \ X) — условная энтропия множества событий Y при данном мно- множестве событий X; H(X{Y) — условная энтропия множества событий X при данном множестве Y; Я (X, Y) — энтропия множества совместных со- событий X, Y. Когда множества X и Y независимы, то Я (Y | X) = Я (Y), Я (X | Г) = = Я (X). При этом Я (X, Y) = Я (X) + Я (Г). A7.21а) Средняя взаимная информация / (X; К) связана с энтропией соотноше- соотношениями / (X; Y) = Я (X) — Я (X | Y) = Я (Г) — Я (Y | X) = Я (X) + Я (Г) — — Я (X, Г), A7.22) / (X; Y) < Я (X), / (X; Г) < Я (Г). A7.23) Энтропия Я — удобная мера неопределенности закбнов распределения вероятностей, особенно в тех случаях, когда распределения являются асим- асимметричными, многовершинными н когда использование таких числовых ха- характеристик, как среднее значение, дисперсия и моменты высших порядков, теряет всякую наглядность. Выражения для энтропии некоторых дискретных законов распределения вероятностей приведены в табл. 17.1. Для характеристики величины, на которую удлиняются сообщения на данном языке по сравнению с минимальной длиной, необходимой для переда- передачи той же информации, вводят специальный параметр R — избыточность: R - 1 — Яоо/log N - 1 — Яо./Я„ - 1 — ц, 0 < R < 1, A7.24) где N — число различных букв используемого алфавита; Нж — энтропия, приходящаяся на одну букву смыслового текста при учете всех миогобуквеи- иых сочетаний; Яо — log N — максимальная энтропия, приходящаяся на 497
Я ЕГ S Ч я Н R i s спред & Ш о gg О as я « X н а. tc о s ? opi кот W не as R X С О а. X 03 1 ев п а> •ш % а> а с; 38 «g. ическое расп ш з; < сб и зако: ВИЯ g§ 11 w + с? _•. с i 1 II о" V о" g> О 1 с о ¦ч •« с о I с V V/ V о | Л* л* с О II II л 1 X i s a. 1 1 7 1 Л >< о" • ¦г §> ^\| II ^* 4- 1 «г II g о" V !>< о" с С о л\ | < *- ' II ? и II К я § log л II с V — ^ V v/ * - о — II II а, •я 3 X о« в а + 8 + II и II и II о. С С о" \/ V X о" X " 1 i + " —' ^ 8 + ^ ZZ J < + • + ^- << —, 8 ^^ о ft, [1 У са Е й + 8 + 1A аи X о Л 498 Таблица 17.2 Относительные частоты появления букв в русском тексте Буква Частота Буква Частота Буква Частота (тире) 0 к 0 ч 0 175 028 012 0 0. м 0. й 0. 090 026 010 0 д 0 X 0 , 6 ,072 ,025 009 а 0, п 0, ж 0, 062 023 007 и 0 У 0, ю 0, 062 021 006 т 0. я 0, ш 0, 053 018 006 и 0 ы 0. ц 0, 053 016 004 с 0, 3 0. Щ 0. 045 016 003 Р 0. ь, 0. э 0, 040 ъ 014 003 в 0 б 0 ф 0 .038 .014 .002 л 0, г 0, 035 013 Таблица 17.3 Относительные частоты появления букв в английском тексте Буква Частота Буква Частота Буква Частота (тире) 0,2 d 0.035 Ь 0.0105 е 0,105 1 0 029 0 0.008 t 0,072 с 0,023 к 0,003 0 0,0654 f 0,0225 X 0,002 а 0,063 и 0,0225 / 0,001 п 0,059 т ,0,021 Я 0,001 i 0.055 Р 0,0175 z 0.001 г 0,054 У 0,012 s 0,052 ш 0.012 А 0.047 В 0,011 . Таблица 17.4 Значения энтропии Hit приходящихся на одну букву с учетом различных буквенных сочетаний Гдв.ед.1 Энтропия [6yKBaj Русский текст Английский текст н. 5,00 4,75 *) Н, — •нтрапия на (укву сочетаний. н1 4,35 4,03 текста при н\\ 3,52 3,32 н, 3,00 3,10 н. 2,16 И, 1,86 учете вероятиоств мявлевия двухбукиииых 499
букву, когда буквы независимы и равновероятны; \ь — коэффициент сжатия текста. Избыточность наиболее распространенных европейских языков превыша- превышает 50%. Некоторые статистические данные о структуре различных языков приведены в табл. 17.2 — 17.4 [1, 15]. Во многих случаях выгодно первоначальное сообщение источника пред- представить при помощи другого алфавита путем кодирования. Характеристиками кода являются значность и его основание. Значность кода п — число символов в кодовом слове (кодовой комбинации), а основа- основание L —число различных символов кода. Наиболее распространены двоичные (бинарные) коды с основанием L = 2. Равномерным является такой код, у ко- которого значность кода для всех кодовых слов одинакова (например, код Бодо). При кодировании сообщений, передаваемых по каналам связи без помех, необходимо выполнить два условия: 1) кодовые слова должны быть различи- различимы и однозначно связаны с соответствующими сообщениями; 2) применяе- применяемый способ кодирования должен обеспечить максимальную экономичность (краткость) кода, при которой на передачу данного сообщения затрачивается минимальное время. Код, удовлетворяющий второму из этих условий, называют оптималь- оптимальным. Если {";}, i = \, 2 N, — ансамбль взаимно независимых сообщений с априорными вероятностями р (н;), a {vj}, / = 1, 2, ..., L,—ансамбль симво- символов кода и L<N, то число кодовых слов по п символов в каждом слове /W=L". При L" > N, где п— наименьшее целое число, для которого выполняется это неравенство, ансамбль сообщений {м,-} можно однозначно закодиро- закодировать при помощи N различных кодовых слов по п символов в слове. Средне? число </г> символов кода, приходящихся на одно сообщение, <п>= причем где Я (t/)/log L < <п> < Я (t/)/log L + 1, A7.25) A7.26) N Р (Щ — энтропия ансамбля сообщений. При кодировании целых «блоков», а не отдельных сообщений H(U)l\og L < <п> < Н (U)/\og L + 1/v, A7.27) где v — число статистически независимых символов в блоке. Для двоичного кода Н (U) < <п> < Н (U) + 1/v. A7.28) Примерами двоичных кодов, близких к оптимальным, являются код Шен- иона—Фаио и код Хаффмена [1, 2, 109, ПО]. Экономичность кодирования сообщений — одна из важных характеристик работы системы связи. Другими ее характеристиками являются скорость передачи, пропускная способность, достоверность приема информации и т. д. Пусть имеется дискретный стационарный канал связи без памяти (без последствия) с заданными характеристиками (рис. 17.1), причем все символы xi закодированного сообщения-и соответствующие им элементарные сигналы tjj имеют одинаковую длительность т, где F = 1/т — частота посылки сим- символов. Канал без памяти полностью описывается априорными вероятностями p(xi), характеризующими структуру закодированных сообщений, и услов- условными вероятностями р (у}\ х{), определяющимися характеристиками канала. 500 I— Кодировщик сигнала Канал связи Линия связи Деновцровщин сигнала Источник помех Т Рис. 17.1. Канал связи с помехами Скорость передачи Vk — среднее количество информации, получаемое за единицу времени: Vh = F I (X; Y) = F[H(X)— Н (X \ Y)] = F[H (Y) - Н (Y \ X)]. A7.29) При отсутствии помех множества событий X и Y статистически пол- полностью взаимозависимы, т. е. Н (X \ Y) = Н (Y \ X) = 0. Следовательно, FH(Y). A7.29а) Пропускная способность канала связи С — максимальная скорость пе- передачи информации, которая может быть достигнута выбором оптимального распределения вероятностей передачи р (дгг) символов сообщения: FI(X;Y)=M.ax F[H (X)-H (X \\Y)] = P(xi) P(xi) = Max F[H{Y)—H(Y\X)]. При отсутствии помех [Я (X | 7) = Я G | X) = 0]: C = Cm = MaxF/(X; К) =Мах^Я(Х) =Мах^ЯG). P(*i) P(*i) p(*i) Для двоичного симметричного канала связи С = F [1 + A - Ре) log A - Ре) + Ре log Ре], где Ре — вероятность ошибочного приема. При отсутствии помех (Ре = 0) С^ Ст^ F. A7.30) A7.30а) A7-31) A7.31а) На рис. 17.2 приведены зависимости относительной пропускной способ- способности от отношения сигнал/шум при оптимальных методах приема радиоте- радиотелеграфных сигналов [1]; сплошные кривые относятся к детерминированным сигналам, а штриховые — к сигналам со случайной начальной фазой; Е — энергия сигнала, No — спектральная плотность белого шума. Для повышения достоверности приема дискретной информации исполь- используют корректирующие коды (коды с обнаружением ошибок и коды с обнаруже- обнаружением и исправлением ошибок). Методы помехоустойчивого кодирования ос- основаны на введении в код некоторой избыточности, достаточной для компен- компенсации помех [109—115]. Экономичность и эффективность кодов с обнаружением ошибок опреде- определяют коэффициент избыточности Ru и коэффициент обнаружения Ко [114]: Ru = 1 — log MjXog M, Ко - Q/(Q + Qi), 501 A7.32) A7.33)
Рис. 17.2. Пропускная способность различных систем радиотелеграфии при приеме детерминированных сиг- сигналов (сплошные линии) и сигналов со случайной начальной фазой (штриховые линии) на фоне белого шума ВО 80 2E//VD где М = 2" — общее число кодовых слов, которое можно получить 'В /г-эле- ментном коде; Мх — количество используемых комбинаций; Q — общее ко- количество искаженных комбинаций, ошибка в которых может быть обнаруже- на; Qi — общее число искаженных комбинации, ошибка в которых не поддается обнаружению. 2. ПРИМЕРЫ 17.1. В партии 100 радиоламп, из них 5% бракованных. Из партии выбирают наугад 5 радиоламп для контроля. Какое количество информации содержится в сообщении о том, что в случайной выборке оказалось ровно 3 бракованных радиолампы? Решение: Случайная величина X— число бракованных радио- радиоламп в выборке из 5 радиоламп — может принять значения хх = О, х2 = 1, хз = 2, xt = 3, хъ = 4, хв — 5. Распределение вероят- вероятностей величины X подчинено гипергеометрическому закону (см. табл. 2.1): ¦ \ >: . ^': к'~ Р ЧХ — Ь\ —С* Г"—* /Г" В нашем случае N = 100, п = 5, М = 100 • 0,05 = 5, k = 3. Следовательно, вероятность Ръ C) того, что в случайной выборке будет ровно три бракованных радиолампы, равна 5! 95! fJ»L Г1-0,000953. L 5! 95! J Используя формулу A7.2), получаем I (х*) = — bg p(xt) = — log Ръ C) 10,7 дв. ед. 17.2. По двоичному симметричному каналу связи с помехами (рис. 17.3) передаются сигналы хх и х% с априорными вероятностя- вероятностями р (xj) = 3/4 и р (х2) = 1/4. Из-за наличия помех вероятность 502 Рис. 17.3. Двоичный сим- симметричный канал связи с помехами правильного приема каждого из сигналов (хх и х2) уменьшается до 7/8. Найти: 1) условную собственную информацию 1{х2\уг); 2) вза- взаимную информацию / (х2; у2); 3) средние количества информации /(X; у2), 1(Х), /(XI У), /(X; Y). Решение. По условию р (хх) = 3/4, р (хг) =1/4, р (г/iUi) = \) 7/8 (\) (\I18 Вычислим вероятности р (у}), р (xit y}) и р(л-г|г/^): _3__7_ 1 1 = 22 . р{у2)=р(х2)р(у2\Х2)+р(х1)р(у2\х1) = —~ +YT=~32" ' 3 7 1)= jj = 3 1 3 ~— = —; Р(х2, у%) = Р(х2) р G/2 \х2)= — у = — 21 Так как то _3_ _7__ 22 _ 21 4 ' 8 ' 32 " 22 ' 1 1 22 1 P(«/i) 3 1 10 3 . . 1 7 10 7 р(*г|^)=Т.Т: —=-^-. 1. На основании A7.3) имеем / {х2\уг) = - bg р (х2\у2) = - log G/10) ~ 0,515 дв. ед. 503
2. Используя формулу A7.4), получаем / (x2;y2) = log *'1У" = log -f^- ~ 1,485 дв. ед. P(x2) 1/4 3. Согласно A7.6) находим / (X; y2) = 2 p (*, | y2) log -^aL = p {Xl | у2) bg I^h ¦--•"-' " р(Хг) 10 " ° 3/4 ' 10 *"b 1/4 ~" ~0,644 дв. ед. Применив формулу A7.17), получим 2 7 W = — 2 р (xi)l°ZP(xi)= -fPW '°gPW +P(*«) bgp(x2)] = = -(¦?- 1о§4+4-1о§^-)-0-811 Ав-еД- \ 4 4 4 4 / Для вычисления информации I (X\Y) воспользуемся формулой A7.19): 2 2 = — [р («1, Ух) bg р («11 Ух) +р (х2, уг) log p (х21 Л) ъ уг) log р (X! | уа) +р (х2, у2) log p {х21 г/2)] = l0g + i0g + i0g+^i0g-Z_ 32 S 22 32 S 22 Т 32 S 10 ^ 32 & 10/ ~ 0,459 дв. ед. Согласно формуле A7.7) находим /(Х;Г)= У У P(^,^)bg Р(*''У =P(xi,yi)log р(х) +p(xi,y,)log 32 5 3/4 ^ 32 1/4 17.3. Источник сообщений генерирует множество кодовых ком- комбинаций, одна из которых имеет априорную вероятность р {х) = 1/8, а апостериорные вероятности, соответствующие последовательному приему символов г/=1,г = 0ин=1, равны: р (х\у) = р (х\ 1) = = 1/6, р (х\у, г) = р (х\Ю) = 1/2, р (х\у, г,и) = р (л:1101) = 1. 604 Определить увеличение информации о сообщении х в процессе приема символов у, г и и. Решение. После приема первого символа у = 1 информация /(*; y)=I(x; l)=log ^ = log i-~ 0,415 дв.ед. Второй принятый символ z = 0 на основании A7.8) доставит до- дополнительную информацию 1(х\г\у) = 1{х\ 0|1)= log = log a, 1,585 дв.ед. | g jg р(х\\) 1/6 Аналогично третий символ и = 1 доставит о сообщении х инфор- информацию /(*; u\y,z)=I{x; I | 10)-l = Iog2= 1 дв.ед. р(х\ 10) Полная информация / (х; у, г, и) о сообщении х после приема всех трех символов / (х; у, г,и) = I {х; у) + / (х; г\у) + I (х; и\ у, г) = / (х; 1) + + / (*; 0J1 > + / (х; 1|10) = 0,415 + 1,585 + 1 = 3 дв. ед. 17.4. Источник вырабатывает ансамбль символов X— {xt}, i = 1, 2, 3, 4, с вероятностями р (хх) = 0,2, р (х2) = 0,3, р (хз) = 0,4 и р (Xi) = 0,1. Корреляционные связи между символами отсутст- отсутствуют. Вычислить энтропию источника. Решение. Применив формулу A7.17), получим Я (X) = —.S P (xt) log p (xt) = — \p ta) log p (Xl) -\- р (х2) X X log р (х2) + р (хз) log р (хз) + р (*«) log p (х4)] = = — 0,2 X log 0,2 — 0,3 log 0,3 — 0,4 log 0,4 — 0,1 log 0,1 = = 0,4644 + 0,5211 + 0,5288 + 0,3322 ~ 1,847 дв. ед. 17.5. Определить энтропию случайной величины X, распре- распределенной по биномиальному закону: 1) в общем случае; 2) при р = 1/2 и п = 5. Решение. По условию случайная величина X.распределена по биномиальному закону. Следовательно, = l -P. . Я(Х) = - 2 А— 0 :- V — 2 5M
Так как при k = 0 и k — п log С* = О, 2 Cknphcf-k= 1, 2 ЬСпрТ- к—0 k—й ТО п— 1 H(X)=-n{p\ogp+q\ogq) — ^ Cknpbq«-4ogCkn. s= 1 2. При р = 9 = 1 /2 и и = 5 имеем 32 ^ fc=l 2 К — 1 k К 5 log 5+ 10 log 10 logCg = ~ 2,198дв.ед. 17.6. Алфавит состоит из четырех букв х1у х2, хъ, хл, вероятно- вероятности появления которых равны: р (хг) = 0,5, р (х2) = 0,25; р (хз) = = р (дг4) = 0,125. Условные вероятности р (Xj\xt) появления /-Й буквы при условии, что ей предшествовала i-я буква, заданы таб- таблицей *«• «1 *2 *3 0 0,2 0,25 0,2 *2 0,2 0,2 0 0,4 0,4 0,3 0,25 0,4 х. 0,4 0,3 0,5 0 1 1 1 1 Найти избыточность R1 источника сообщений при статистиче- статистической независимости букв и избыточность R2 с учетом зависимости между буквами. Решение. На основании A7.24) имеем Rx = 1 — Нг/Н0. Так как #0 = log N = log 4 = 2 дв. ед., #i = — ЩР (xt) ]°ё Р (*i) = — (°-5 log °-5 + °.25 bg 0,25 + + 2 • 0,125 log 0,125) = 1,75 дв. ед., то R1 = 1 — 1,75/2 = 0,125. При учете статистической зависимости между буквами R2 = = 1 — Н2/Н0, где #2 — энтропия на букву при учете двухбуквен ных сочетаний. 506 Энтропия двухбуквенного текста Н (Xlt Ха) = Н (X,) + Н (X, | = 1,75 + Я (Х где Я (Х2 5 Р = —0,5@,2 log 0,2 + 2 • 0,4 log 0,4) — 0,125 B • 0,2 log 0,2 + + 2-0,3 log 0,3) — 0,125 B • 0,25 log 0,25 + 0,5 log 0,5) — — 0,125 @,2 log 0,2 + 2 • 0,4 log 0,4) ~ 1,62 дв. ед. — условная энтропия второй буквы, определяемая формулой A7.18). Средняя энтропия на одну букву Я2 = Н {Хъ Х2)/2 = A,75 + 1,62)/2 = 1,685 дв. ед. Следовател ьно, #2 = 1 — 1,685/2 ~ 0,16. 17.7. Закодировать двоичным кодом Шеннона—Фано ансамбль сообщений X = {xt}, i = 1, 2, ..., 7, 8, если все кодируемые сооб- сообщения равновероятны. Показать оптимальный характер получен- полученного кода. Решение. При кодировании по методу Шеннона—Фано все со- сообщения записываются в порядке убывания их вероятностей и раз- разбиваются на две группы так, чтобы суммы вероятностей сообщений в каждой из групп были по возможности близкими к 1/2. Всем сообщениям, входящим в верхнюю группу, приписывается цифра «0» в качестве первой цифры двоичного кода, а сообщениям, вхо- входящим в нижнюю группу,-—цифра «1». Затем каждая из групп аналогично разбивается на подгруппы по возможности с одинако- одинаковыми суммарными вероятностями, причем верхним подгруппам в обеих группах опять приписывается цифра «0» (вторая цифра кода), а нижним — цифра «1». Деление повторяется до тех пор, пока в каждой подгруппе не останется по одному сообщению. Процесс кодирования приведен в табл. 17.5. Среднее число двоичных знаков, приходящихся .на одно сообще- сообщение, о <„>= 2 n,p(*,) = 3-i-+3.-?-+...+3.-L = = 8-3 -~=3дв.ед. о Энтропия ансамбля кодируемых сообщений Я (X) = log W = log 8 = 3 дв. ед. Так как средняя длина кодового слова <«> равна энтропии Я (X), то код оптимален. 507
Таблица 17.5 Кодирование по методу Шеннона — Фано Сообщения н х2 Ч ч ч ч ч х» Р (*;) 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8 Разбиения 1 ! 0 1 0 0 1 0 1 1 0 0 , 0 1 1 Кодовые слова 0 0 0 0 0 1 0 1 0 0 1 1 1 0 0 1 0 1 1 1 0 1 1 1 17.8. Показать, что энтропия Я (X) алфавита {xt} с конечным множеством символов xt, i = 1, 2, ..., п, достигает максимума Я (X) = Нт (X) = log n, когда все символы равновероятны. Решение. Обозначив р (xt) = pt, имеем Пользуясь методом неопределенных множителей Лагранжа, найдем экстремум функции Ф=-2 Ptlogpi+K 2 Pi- <• = i / = i Дифференцируя это выражение по ръ ..., рп и приравнивая производные нулю, получаем систему уравнений: log pi + log e + К = 0, i = 1, 2, ..., п или ' log pi = — к — log e — const, i = 1, 2, ..., п. " l Так как "V р,-= 1, то р1 = р2 = ... = рп =—. 1 1 1= 1 508 1 Следовательно, Я (X) = Нт (X) = log п. Иное решение задачи дано в [1, ПО]. 17.9. Вычислить пропускную способность С двоичного симмет- симметричного канала (рис. 17.4) при условии, что все символы сообщения и соответствующие им элементарные сигналы у} имеют одинаковую ¦ длительность т, где F = 1/т — частота посылки символов. Построить график зависимости С/Ст = f {Pe), где Ст — мак- максимальная пропускная способность (при отсутствии помех), а Ре — вероятность ошибочного приема. Решение. Согласно A7.30) имеем В нашем случае С = F Мах [Я (Г) — Я (Y \ X)]. Hxt) #00= Ptifj)i°sp(yj), 2 /1 Я (Y | X) = - 2 p (*,) 2 P Wj I *i) l°g P tifj I xt). Так как Р (й) = Р (*i) Р №) + Р Ы Р Ш**) = Р A — ре) + 0 — P (Уг) = Р {Хг> P iy&i) + P 2pPe, то H(Y) = - \(p + Pe - 2pPe) log (p + Pe - 2pPe) + A - p- -Pe + 2pPe) log A - p - Pe + 2pPe)], Я (У|Х) = - p (Xl) [p (ftl^) log p (ftl^) + p (г/2|хх) X X log p (ft>|*i)l — P (A'2) fp (У^'г) bg p (ftk2) + P №2) X X log p (y2\x2)] =— [A — Pe) log A — Pe) + Pe log P.]. Из выражения для Я (У \Х) видно, что ввиду симметрии канала связи условная энтропия Я (Y\X) не зависит от вероятности пере- передачи р. Поэтому максимальное значение / (X; Y) достигается про- просто максимизацией Я (Y). P(fff\Xf)^'Pe Рис. 17.4. Двоичный сим- симметричный канал связи Р(уг\хг)=1-Ре 509
Рис. 17.5. Зависимость пропускной способности двоичного симметричного канала от вероятности ошибочного приема 0,4 0,8 Ре Максимум Я (Y) достигается тогда, когда сигналы у1 и у2 не- независимы и равновероятны (см. пример 17.8), что в свою очередь имеет место при равной вероятности передаваемых символов. Сле- Следовательно, C = FU+{l-P.) log (I - Ре) + Ре log Pe]. При отсутствии помех (Ре = 0) С = Ст = F. Поэтому С/Ст = = / (Рв) = 1 + A — P.) log A - Ре) + Ре log Р.. Зависимость от- относительной пропускной способности С/Ст от вероятности ошибоч- ошибочного приема Ре изображена на рис. 17.5. 3. ЗАДАЧИ И ОТВЕТЫ 17.1. Самолет противника с равной вероятностью может нахо- находиться в одной из 1024 зон воздушного пространства. Какое количество информации получает оператор радиолокацион- радиолокационной станции, когда он фиксирует наличие самолета в одной из зон? Ответ: I (xt) =10 дв. ед. 17.2. Радиостанция состоит из 16 равноценных с точки зрения надежности блоков и имеет устройство контроля и индикации ис- исправности блоков. Определить минимальное число проб k, которое необходимо выполнить этому устройству, чтобы отыскать любой неисправный блок. Ответ: k ^ 4. 17.3. По каналу телекодовой связи передаются пять команд X = {xt},i = 1, 2, 3, 4, 5с вероятностями р (х,) = 0,3, р (х9) = 0,1, р (*,) = 0,25, р (х4) = 0,2, р (х5) = 0,15 Определить среднее количество информации, приходящееся на одну команду. Ответ: 1 {X) ~ 2,228 дв. ед. 17.4. Символы алфавита азбуки Морзе появляются в сообщении со следующими вероятностями: 0,51 для точки, 0,31 для тире, 0,12 для промежутка между буквами, 0,06 для промежутка между словами. Определить среднее количество информации в сообщении из 500 символов данного алфавита, считая, что связь между последова- последовательными символами отсутствует. Ответ: I (X) = 236 дв. ед. 510 17.5. Напряжение изменяется в пределах U2 — U1 — 8 В. При равномерном квантовании датчик регистрирует приращения на- напряжения Л?/ = 0,1 В. Вычислить максимальное количество информации за 5 отсчетов. Ответ: I (X) = 31,61 дв. ед. 17.6. Найти количество информации, которое содержится в кван- квантованном телевизионном сигнале, соответствующем одному кадру развертки изображения, если: в кадре 625 строк; сигнал, соответст- соответствующий одной строке развертки изображения, представляет собой последовательность из 600 случайных по амплитуде импульсов, каж- каждый из которых может с равной вероятностью принять любое зна- значение в интервале от 0 до 8 В; каждый импульс квантуется по величи- величине с шагом квантования 1 В; импульсы изображения между собой не коррелированы. Ответ: I (X) = 1125 • 103 дв. ед. 17.7. Вычислить среднее количество информации I (X; у2) о пе- переданных командах X = {xt}, I = 1, 2, 3, доставляемое принятым сигналом у2 ансамбля сигналов Y = {{/j}, j — 1, 2, 3, если объеди- объединенная система (X, Y) характеризуется распределением вероятно- вероятностей, приведенным в следующей таблице: </1 Уч. Уз P(Xi) *i 0,05 0 0,05 0,1 0,2 0,3 0 0,5 *» 0 0,1 0,3 0,4 Р (Vj) 0,25 0,4 0,35 Ответ: I (X; у2) ~ 0,268 дв. ед. 17.8. Радиостанция противника может работать на волне Я,х (событие Л]) или на волне к2 (событие Л2). причем в импульсном (событие Вх) или непрерывном (событие В2) режимах. Вероятности совместных событий имеют следующие значения: р (Alt Бх) = 0,7, р (Л„ В2) = 0,15, р (Л2, Вг) = 0,05, р (Л2, В2) = 0,1. Вычислить количество информации, получаемой*о режиме работы станции, если станет известной длина волны станции. Ответ: / (В; А) = 0,102 дв. ед. 17.9. Найти максимальную энтропию черно-белого изображения с двумя градациями, содержащего 5 • 106 независимых элементов. Ответ: Нт (X) — 5-10Б дв. ед. 17.10. Распределение вероятностей случайной величины X име- имеет вид: р fo) = 0,1, р (*,) = 0,1, р (xs) = 0,1, р (xt) = 0,7. Определить число п значений случайной величины, при котором энтропия Яр (X) равномерного распределения будет равна энтропии Я (X) заданного распределения. Ответ: п = 2,56. 511
17.11. Вероятность появления события А при одном испытании равна р. Испытания повторяются до первого появления события А. Найти энтропию числа испытаний X и выяснить характер изменения энтропии с изменением р. Ответ: Я (X) = — [р log р + A — р) log A — р)]/р дв. ед. При уменьшении р от 1 до 0 энтропия монотонно возрастает от О до оо. 17.12. Для повышения достоверности каждое сообщение может передаваться по каналу связи k раз, причем вероятность неиска- неискаженного прохождения сигнала при каждой передаче рх = 0,2. Пос- После k повторений A < k < N) решающее устройство сравнивает все k принятых сигналов и при их совпадении выносит решение о пра- правильном приеме, после чего отправителю посылается команда о пре- прекращении посылки данного сообщения и о передаче следующего сообщения. Определить значение коэффициента дублирования k из условия максимума количества информации, обеспечиваемой решающим устройством. Ответ: k = 3. 17.13. Ансамбли событий X и Y объединены, причем вероятности совместных событий равны: р (хъ г/1) = 0,1, р {хъ г/2) = 0,25, Р (*2, Л) = О.2- Р (*«. У2) = О- Р (*з. yiV= °А Р (Хз> У*) = °-15- Определить: а) энтропии ансамблей X и Y; б) энтропию объе- объединенного ансамбля; в) условные энтропии ансамблей. Ответ: а) Н(Х) = 1,512 дв. ед., Я (Y) = 0,971 дв. ед.; б) Н(Х, Y) = 2,228 дв. ед.; в) H(X\Y)= 1,257 дв. ед., Я (Y\X) = 0,716 дв. ед. 17.14. Источник сообщений создает последовательность букв, выбранных из набора букв А, В, С, D с вероятностями 0,5; 0,25; 0,125; 0,125, причем очередная буква выбирается независимо. Вычислить избыточность текста. Ответ: R = 0,125. 17.15. Для передачи сообщений используется код, состоящий из трех символов, вероятности появления которых равны 0, 6; 0,2; 0,2. Корреляция между символами кода отсутствует. Определить избыточность кода. Ответ: R = 0,139. 17.16. Ансамбль сообщений {х{}, i = 1, 2, ..., 8, и вероятности сообщений заданы следующей таблицей: Pi Xi. 1/4 1/4 х3 1/8 Xl 1/8 х% 1/16 хв 1/16 Xl 1/16 Xs 1/16 Построить код Шеннона—Фано для данного ансамбля и показать его оптимальный характер. 512 Ответ: Сообщение Кодовая комбинация Xl 00 01 х3 100 ч 101 Хь 1100 1ч 1101 Xl 1110 хй 1111 Я (X) = <и> = 2,75 дв. ед. 17.17. Сообщения хъ х%, хз, xt появляются соответственно с Ее- роятностями 1/2, 1/4, 1/8, 1/8 и кодируются четырьмя двоичными ко- кодовыми словами 0, 10, ПО, 111. Требуется: а) показать, что если сообщения статистически не- независимы, то в получающейся последовательности кодовых слов символы 0 и 1 появляются с равными вероятностями, и что символы в такой последовательности независимы; б) найти среднее значение <п> числа двоичных символов на сообщение. Ответ: б) <п> = Я (X) = 1,75 дв. ед. 17.18. Ансамбль сообщений {*,-}, i = 1, 2, 3, ..., 9, и их вероят- вероятности заданы следующей таблицей: Xi Pi Xl 0,20 *2 0,15 Хз 0,15 Xi 0,12 Хь 0,10 Ч 0,10 х7 0,08 хй 0,06 0,04 Произвести кодирование двоичным кодом по методу Хаффмена (ме- (метод вспомогательных группировок) и вычислить энтропию сообще- сообщений Я (X) и среднюю длину <п> кодового слова. Ответ: Сообщение Кодовая комби- комбинация 10 *2 001 х3 010 Xi 011 хъ ПО 111 х7 0001 ч 00000 ч- 00001 Я (X) ~ 3,04 дв. ед., <гс> ~ 3,08 дв. ед. 17.19. Ансамбль сообщений состоит из двух букв: х1 и х2, при- причем вероятности р (xt) появления букв равны р (л^) = 0,89, р(хг) = = 0,11. Определить среднее число символов кода, приходящееся на одну букву, если кодирование осуществляется: а) по одной букве; б) блоками по две буквы; в) блоками по три буквы. 17 Зак. 1203 513
Ответ [115] Сообщение Кодовая комби- комбинация </г>, дв. ед. а) 0 Х2 1 1 б) 0 XiX2 10 по ~0,66 Х2Х2 111 Сообщение Кодовая комбина- комбинация <п>, дв.ед. в) xlxixl 0 100 101 110 XtX2X2 11100 11101 0,552 11110 хгх,х2 11111 17.20. Определить пропускную способность С двоичного симме- симметричного канала со стиранием (рис. 17.6), если символы xt и г/у имеют одинаковую длительность т, где F = 1/т — частота посылки символов. Ответ: С = F{(\ - q) [I - log A - q)] + A - Pe - q) log A - Pe-q)+ + Pe bg Pe}- 17.21. На вход канала связи (рис. 17.7) поступает ансамбль сиг- сигналов X = {Xi}, i = 1, 2, ..., N, с вероятностями р (xt) и часто- 1-Pe-q Уз Рис. 17.6. Двоичный симмет- симметричный канал связи со сти- стиранием р(х/>>;х/>о Ун Рис. 17.7. Капал связи 514 Рис. 17.8. Канал связи с ретранслятором Ретранслятор Приемник 1-Рс Уг 1~Ре той посылки F = 1/т, где т — длительность сигналов. Вероятности перехода равны р (у]\хг) = 1 — Репри/ = inp {у}\хг) =Pe/(N—\) при / ф L Определить пропускную способность канала связи. Ответ: <gN +Pe\og ^- +A -Ре) log(l - Ре)}. 17.22. По каналу связи, состоящему из передатчика, ретрансля- ретранслятора и приемника (рис. 17.8), передаются сигналы хг и х% с часто- частотой следования F = 1/т, где т — длительность сигналов. Значения априорных вероятностей и вероятностей перехода на участке пе- передатчик—ретранслятор и ретранслятор—приемник указаны на рисунке. Вычислить пропускную способность канала связи. Ответ: С = F [1 + A - 2Ре + 2Р\) log A - 2Ре + 2Р1) + 2Ре A - - Ре) + 2Ре A _ Ре) log Ре A - />„)]. 17.23. Определить пропускную способность канала связи, по которому передаются сигналы xlt x2, xs, xt с частотой следования F = 1/т, где т — длительность сигналов. Влияние помех характе- характеризуется условными вероятностями р (г/;-1 xt): Р ЫЧ) = Р Р ШХг) = Р Р (jr»l-«i) = р (& = Р Ответ: С = F [2 г) = р'Ыхз) = р (уА\хЛ) = 1 — Рв, хг) = Р Ы**) = Р {УАЧ) = Ре, ) = р (Уз\х2) = р (yt\x2) =i p (г/^з) з) = р {yl\xi) = р (г/2|лг4) = 0. Ре log Ре + A — Ре) log A — ре)]. 18. НЕПРЕРЫВНЫЕ СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ 1. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ Непрерывные системы передачи информации — системы, в которых как реализации сообщения, так и реализации сигнала на конечном временном интервале @, Т) представляют собой некоторые непрерывные функции вое- меии [1, 110]. ^ 17* 15
I Пусть x (t) — реализация непрерывного сообщения на входе какого- либо блока схемы связи, у (t) — реализация выходного сообщения (сигнала), р1 (х) — одномерная плотность вероятности ансамбля входных сообщений, Pi (У) — одномерная плотность вероятности ансамбля выходных сообщений, Рг(х,у)— совместная плотность вероятности, pt (x\ у)— условная плот- плотность вероятности х при известном у, Pl (у\х) — условная плотность вероят- вероятности у при известном х. Тогда для количества информации / справедливы следующие соотношения [1, 3, 110, 115]: ,, . . Р2 *. У) , Pi (* I У) . „ рЛУ\х) I (x; f/) = log — — = log —— = log —— -I (у; x), Pi (x) Pi (У) Pi (x) Pi (y) A8.1) /(X; </)=.[/(*; f/)pi(xIf/)dx, I(x;Y)=^I(x;y)Pl(y\x)dy, A8.2) (X;Y)=JPl(y)I(X;yLy = A8.3) p2 (*. У) log Pl{xly) dxdy = - j Pi (x) log pi (*) dx+ Y X Pi\x> x , у) log Pl(x\ y) dxdy, I (X; y) > 0, / (x; Y) > 0, / (X; Y) > 0. A8.4) A8.5) Здесь / (x\ у) — взаимная информация между каким-либо значением х вход- входного и значением у выходного сообщений, / (X; у), I (x; Y) — средние значе- значения условной информации, / (X; Y) — полная средняя взаимная информа- информация. Формулы для энтропии Н непрерывных сообщений получаются путем обобщения формул для энтропии дискретных сообщений. Если Ах — ин- интервал квантования (точность измерения), то при достаточно малом Ах эн- энтропия непрерывных сообщений . (X) = — J Pi (x) log pi (x) dx- log Лл: J px (x) dx = — OO —°° 00 = H(X) — log Дя'= — j Pi(#)log[PiW Ax]rfx, A8.6) — oo cc H(X)=—\ Pl(x) log p1(x)dx. A8.7) где Из A8.6) видно, что информативность сообщений, обусловленная стати- статистикой состояний элементов сообщения, целиком определяется величиной Н (X), которая называется дифференциальной [115, 116], а иногда приведен- приведенной [3] энтропиен. Величина — log Ax зависит только от выбранного интервала Ах, опре- определяющего точность квантования, и при Ах = const есть величина постоян- постоянная, которую иногда исключают из рассмотрения [117, 118]. При определе- определении полной взаимной информации / (X; Y) величины log Ax и log Ay взаим- взаимно компенсируются, так что / (X; Y) от выбора координат ие зависит. 516 По аналогии с A8.7) tf(K) = -j Pi((/)logpi((/)rf(/, A8.8) OO oo oo H(X\Y) = — j j р2(ж, «/) log/)!(a;|«/)dArdi/, A8.9) — OO —00 H(Y X)=-\ \ Pi(x, У) log Pl(y\x) dxdy. A8.10) — ОО ОО Когда X и Y статистически связаны между собой, то Н(Х, Г) = Я (Х)+ Я (К|Х) = Н (Y) + Я(Х|К). A8.11) При независимых X и Y Н(Х, Y)= Я(Х) + H(Y). A8.12) Полная средняя взаимная информация определяется формулой /(X; Y)= H{X) — H(X\Y)= H{Y) — H(Y\X), A8.13) а пропускная способность непрерывного канала = lim Мах | — / (X; Y)\ , \_ Т J A8.14) где максимум / (X; Y) достигается выбором оптимального распределения Pi (x) входного сигналах (t) при достаточно большом интервале времени Т. В случае канала связи с ограниченной полосой частот пропускная спо- способность определяется формулой Шеннона [1] C = /7log(l+a|/^0/7), A8.15) где F — полоса пропускания канала; No — постоянная спектральная плот- плотность нормального стационарного шума п (t) в полосе 0 < / < F; a| = = < х2 (t) > = const — ограниченная средняя мощность сигнала х (t), представляющего собой стационарный гауссовскнй процесс с равномерной спектральной плотностью в полосе 0 < / < F; у (t) = x (t) + n (t), причем х (t) и п (t) — статистически независимы. Если opN0F > 1 (отношение сигнал/шум велико), то С ~ F log (o*/N0F). При oVN0F « 1 A8.16) A8.17) Когда спектральная плотность гауссовского случайного сигнала х (t) есть S (/), а спектральная плотность аддитивного гауссовского шума п (t) равна N (f), формула A8.15) имеет вид = J log[l+S(f)/N(f)]df. li A8.18) В табл. 18.1 приведены значения энтропии Я (X) некоторых непрерыв- непрерывных законов распределения [1, 15, ПО, 115—120]. 517
Таблица 18.1 Энтропия Н(Х) некоторых непрерывных законов распределения Наименование закона распре- распределения Равномерный (прямоуголь- (прямоугольный) Гауссовский (нормальный) X2 Гамма-распре- Гамма-распределение Коши Релея Максвелла Лапласа (двух- (двухсторонний экс- экспоненциальный) Экспоненци- Экспоненциальный одно- односторонний Аналитическое выражение ¦ плотности вероятности р, {х) ( 1 , а < х < b [о, х <~а, х]> Ъ aV2StXp[ Ж } * п/Р— 1 — х/9 2"/2Г(п/2)л х>0 ' а. . —x/f, Ра+'Г(а+1)л " х>0, а> —1, Р>0 1 h я А»+(*-*„)* X —х2/2а2 ~72& д;>0 т/А 1 ^е-*"/2, г л аз х>0 _^_ —А. 1 л: — |А | te~Kx, x>0 ОО Н (Х) = — \ р, (л-) logp, (дг) d* ¦ СХ) log(u-a).-log(o2V3) log(° Угле) logr(n/2) + log2 + + [n/2 —(n/2 —l)i|)(n/2)]loge, где i|)(z)=.-—1пГ(г) — аг пси-функция Эйлера log Г (a+l)-a loge-i|) (a+ 1)+ + (a + l)loge + logp, где Tj3(a4-')—пси-функция Эйлера log 4nh (c/2+1) log e, где с = 0,5772... — число Эйле- Эйлера 1 , 2я02 , , log e +cloge, где с = 0,5772 log-^- = log(oeV2) А- l°g~ = 'og (oe) 518 Продолжение табл. 18.1 Наименование закона распре- распределения Аналитическое выражение плотности вероятности р, (*) Н(Х) = - Г р, (х) log p, (дг) Показательно- степенной т\ ', Х>0 log m\ — m logex т 1 1 1 1 т~с +loge' J где с = 0,5772 о, 4(лг—а) Симпсона (тре- (треугольный) х < а, (b-af 4 (fr—а) (Ь-сJ 0, а<х< а+Ь log <х<Ь, х > Ь Закон арксинуса 0, 0, х>а х< —а, —а<х<а, 1 f log (а2-д:2) logn+— -—===— я J у a2—x2 о 2. ПРИМЕРЫ 18.1. На вход приемного устройства воздействует колебание у (t) = х (t) + п (t), где сигнал х (t) и помеха п (t) — независимые гауссовские случайные процессы с нулевыми математическими ожи- ожиданиями и дисперсиями, равными соответственно а? и а*. Определить: 1) количество взаимной информации / (х; у), ко- которое содержится в каком-либо значении принятого колебания у (t), о значении сигнала х (t); 2) полную среднюю взаимную ин- информацию / (X; Y). Решение. По условию задачи у (t) представляет собой сумму независимых колебаний х (t) и п (t), которые имеют нормальные плот- плотности вероятности. Поэтому 519
1. По формуле A8.1) находим Pi (у) In 2 Pl (у) ; y) = In- -1п 2 "a i 2° In 2 an 2. Согласно A8.3) имеем / (X; У) = ^ p2 (x, у) I (x; y)dxdy = <[/ (x; y)\) = log +lnT [a^'+o*) —Щ~]= log' +~ьГ2"['2(о1+аЛ) lo*~J' где < > — знак усреднения по множеству. Таким образом, I(X;Y) = log ^g'+g" —1-log fl+ " 1 °n) J дв. ед. 18.2. Вычислить полную среднюю взаимную информацию / (X; У) между случайными величинами X и У, имеющими нормаль- нормальные плотности вероятностей и коэффициент взаимной корреляции Rxy = R-= —— <(х-тх) (у-ту)у, где тх, Шу, о%, а2, — математические ожидания и дисперсии ве- величин X и У. Решение. В соответствии с A8.3) и A8.1) имеем / (X; Y)=j§Рг (х, У) I (х; у) dxdy = ^ р2 (х, у) X —во—оо X log Р*[Х'У\ dxA/ = —!— f Г p,(*. y)[lnp,(x, y) — lnpi(*) — PiWpi(y) in 2 J J OO OO r- OO OO = —V i" ( P2 (x, y) In p2 (л:, у) dxdy — In 2 J J 520 OO OO OO OO ^y - f f Pa (x, y) In px (x) dxdi/ — Г Г р2 (х, у) In рг (у) dxdy ¦¦ IOO O0 OO j j Pi (x, У) In p2 (x, y) dxdy — Г Pi (*) In Pi (x) dx- OO OO OO OO -, — j Pi (У) In pi (y) dy . OO J Вычислим эти интегралы, учитывая, что по условию -тх? —expl— 2 I Pi («/) = —^г /2 1 J' —00 —00 op (х—тх)(У—ти) , (У—туJ °° OO 00 J p« (*, ^) In p2 (л;, i/) djed^ = Г Г р2 (*, у) х X /in \ 2A-/?) [ о» = - In Bлаж а, / Г=^) _ 00 J (x~mxJP2( •^OO —00 00 00 [2A -R*)oxoy J J iX~Шх) {У ~т 00 00 ~ 2(i-^)a2 J J (y~myJP*(x,y)dxdy. Так как ОО 00 2 (* {* - О t, \ \ [11 f J J ' ~00 ¦ 00 ОО 00 J J (х~пгх)(у~ту)р2(х, —ОО —00 521
то oo oo Г Г Р2 (х,у) 1пр2 (х, у) dxdy= — In [2noxouVl ~K2)-2(l_R2) 4—2 i 1 i_#2 2A—tf2) = — In [2nax OyV = —lnBneox<yyy 1—i?2), Pi (*) lnPl(x)dx = j Pl W [ In = _ In (ox |/2я) — 1/2= —1п/2яёоГ. По аналогии Тогда /(X; Y)= -^[—\n[2neoxouV^ — In In In 2 |/я2е2а|а2A— /?" Следовательно, 7 (X; К) = - A/2) log (I - R>). 18.3. По линии связи передаются непрерывные амплитудно- модулированные сигналы х (/), распределенные по нормальному за- закону с математическим ожиданием тх = 0 и дисперсией о% = = а2 = 8В2. Определить энтропию Ях (X) сигнала при точности его измере- измерения Ах = 0,2 В. Решение. По условию плотность вероятности сигнала х (t) PiW = - ' -""- По формуле A8.6) имеем оо Ht (X) = — Г Pi (x) logpx (х) dx- log Дл —оо оо Г p1(x)\np1(x)dx — 1 In 2 522 OO = — Г /?i (jc) Г In J= —]dx — In 2 J P W L а /2я 2а2 J In 2 ln- \= -)-- logA.v = а>/2я 2 ' S = -5-1пК2яеа2 —logAx = log l/2neg2 . In 2 Дд; Подставляя числовые значения, получаем ^ (X) = log /2я2е8 ~ 5,87 дв. ед. 18.4. Непрерывная случайная величина X имеет плотность вероятности рх (х). Величина Y есть однозначная функция У= = 8 (X). Показать, что Н(У) = Н (X)-(log гдеЯ(Х), Н (Y) — соответственно дифференциальные энтропии величин X и Y; D (х/у) — якобиан преобразования от х к у. Решение. Так как D , dy = то по формуле A8.8) имеем Н (Y) = - j Pl (у) log Pl (у) dy = - j Pl (x) Y X X log \Pl (x) Dl— X dx = Поскольку окончательно получим /log | D(i- 523
18.5. Средняя мощность передаваемых сигналов а? = а2. Най- Найти распределение, которое при данном ограничении обладает мак- максимальной энтропией, равной Н (X) = A/2) 1пBяесг2). Решение. Решим задачу с помощью методов вариационного исчисления [117] (иной метод использован в [1, ПО]). Если требуется найти максимум (или минимум) интеграла ъ I = j Fix, p1(x)\dx A8.19) а при дополнительных условиях ь j <Pi lx, pi (x)] dx = &! = const, Ф2 lx, pi (x)] dx = k2 = const, A8.20) b J cpn lx, pi (x)] dx = kn = const, то функция р1 (х), обеспечивающая максимум (или минимум) ин- интеграла A8.19), находится из решения уравнения 1 1 ^т1 I dp dpi dpi г ••• д<рп = 0, A8.21) где Ях, Я2, ..., %п —¦ некоторые константы (неопределенные множи- множители Лагранжа), которые определяются подстановкой рх {х), яв- являющейся решением уравнения A8.21), в равенства A8.20). В данном случае требуется найти такую функцию рх (х), при ко- которой Я (X) = - ] рх (х) In Pl (x) dx достигает максимума, причем максимум следует искать при усло- условиях A8.22) 2P! (x) dx = (Г2, Функции F, ц>ъ ф2 имеют вид F lx, Pl (x)] = — pi (x) In pt (x), Ф1 lx, Pl (X)] = X2pi W, ф2 lx, Pi (X)] = i (X). 524 Следовательно, af/ap! = — [1 + In pi (a-)], d(fjdp1 = x2, ^фз/ар! = 1. Подставив значения производных в A8.21), получим — 1 — In pi (х) + Кх* + К = 0. Из этого соотношения следует, что In рх (х) = к2 — 1 + \хг или Pl (x) = efc«-1e^«*V A8.23) Для исключения неизвестных Ях и Я2 подставим найденное зна- значение рх (х) во второе равенство A8.22). Тогда Отметим, что Кг должно быть отрицательным, ибо в противном оо случае интеграл \ рг (х) dx расходится. Так как то или оо ¦'J' -ij_l/ _5_ = i Тогда A8.23) примет вид A8.24) Подставим A8.24) в первое соотношение A8.22): ОО а2= Г x*Pi(x)dx = ^±- fx2e^**dx = 0 = 2 L / . я 4 V (-М3 2*! Следовательно, Ях = — 1/2сг2. Подставив значение %г в выражение A8.24), окончательно получим Таким образом, при ограничении сигналов по их средней мощ- мощности максимальной энтропией обладают функции с нормальным распределением. 525
Вычислим энтропию случайной величины, распределенной по нормальному закону ay 2я оо 00 = - Г Pl(x)\nPl(x)dx = - Г Pl(x)ln J J OO OO CX) CX) = Г p1(x)\nY2^dx+ Г p1(x) Учитывая ограничивающие условия A8.22), найдем Н (X) = Нт (X)=\nVbw* + сгУ2а2 = In Следовательно, Н (X) = 1п lne. = A/2) In Bяесг2). 18.6. Определить полосу пропускания канала передачи теле- телевизионного черно-белого изображения с 5 • 105 элементами, 25 кадрами в секунду и 8 равновероятными градациями яркости для отношения of/N0F = Ps/Pn = 15 при условии, что изображение может принимать наиболее хаотичный вид — вид «белого шума». Решение. Изображение принимает вид белого шума, если все его элементы как в одном кадре, так и в различных независимы. Энт- Энтропия такого изображения при указанных условиях равна Нк (X) = 5 • 105 log 8 = 1,5 • 10е дв. ед. Ввиду независимости кадров общее максимальное количество ин- информации, которое должно быть передано в 1 с, составит Н (X) = = 25 • 1,5 • 10е дв. ед. Приравнивая это значение пропускной способности канала A8.15), получаем 25 • 1,5 • 10е = F log A -\~ + 15), откуда F = 9,375 • 106 Гц ~ 9,4 МГц. Обычные телевизионные изображения имеют сильную простран- пространственную и временную корреляцию. Поэтому практически необ- необходимая пропускная способность может быть существенно меньше принятого здесь максимального значения. 18.7. Найти спектральную плотность сигнала S (/), которая при f заданных значениях его полной мощности Ps = } S (/) df и спек- h тральной плотности гауссовской помехи N (/) обеспечит максималь- максимальную скорость передачи информации. Решение. Согласно A8.18) С = [1 + S(f)/N(f)]df. 526 Требуется найти максимум этого интеграла при условии Ps = f = § 5 (/) df. На основании A8.21) имеем h dF , . Эф д . I. . S \ , . dS Л РА —— = In 1 Н +Л =0, dS dS dS \ N I dS где 5 = 5 (f), N = N (/). Так как J-\n(l Is)-- ' ' dS [ N J l+S/N N ' то IS (/) + N if)]'1 = — Я. Следовательно, S (f) =-Ш - N {f). Искомая спектральная плотность сигнала 5 (/) должна быть такой, чтобы, будучи добавленной к спектральной плотности помехи Af (/), она обеспечила постоянство этой суммы и независимость ее от ча- частоты. Величина К выбирается так, чтобы общая мощность полез- полезного сигнала равнялась заданной мощности Ра. 3. ЗАДАЧИ И ОТВЕТЫ 18.1. Информация передается посредством изменения амплиту- амплитуды сигнала X, распределенной по нормальному закону с параметра- параметрами тх = 0 и а| = 15. Величина X измеряется регистрирующим устройством с погрешностьюZ, независящей от амплитуды сигнала и также распределенной по нормальному закону с математическим ожиданием mz = 0 и дисперсией а! = 9. Определить количество информации / (X; Y) о величине X заключенное в случайных результатах измерений У = X + Z. Ответ: I (X; Y) ~ 0,71 дв. ед. 18.2. Для контроля исправности блока периодически измеряют напряжение в контрольной точке схемы. При исправном блоке это напряжение равно 1 В, а при неисправном — О В. Ошибка вольт- вольтметра распределена равномерно с нулевым средним, но ширина этого распределения зависит от значения измеряемого напряжения: она равна 2 В, если напряжение на выходе составляет 1 В, и 1 В в противном случае. В среднем в 90% времени блок исправен. Вычислить количество информации / (X; Y), доставляемой при- прибором при одном измерении. Ответ [120]: /(X; Y) = 0,28 дв. ед. 18.3. Информация передается с помощью частотно-модулиро- частотно-модулированных синусоидальных сигналов, рабочая частота F которых изме- изменяется с равной вероятностью от fx = 10 МГц до /2 = 50 МГц. Определить энтропию Нг (F), если точность измерения частоты Af = 2 кГц. Ответ: Нг (F) ~ 14,28 дв. ед. 527
18.4. Измерительное устройство вырабатывает временные ин- интервалы, распределенные случайным образом в пределах от 100 до 500 мс. Как изменится энтропия случайной величины при изменении точности измерения с 1 мс до 1 мкс? Ответ: Энтропия увеличится примерно на 10 дв. ед. 18.5. Вычислить дифференциальную энтропию нормального за- закона с дисперсией а2 и равномерного распределения с той же дис- дисперсией. __ Ответ: Нг (X) - log (оУШ), Нр (X) = log (<x2j/3). 18.6. В результате полной дезорганизации управления п само- самолетов летят с произвольными курсами. Управление восстановлено и все самолеты взяли общий курс со средней квадратической ошиб- ошибкой <гф = 3°. Определить изменение энтропии Л//х, считая, что в первом со- состоянии имеет место равномерное распределение вероятности, а во втором — нормальное. Ответ: ЛЯ = Hv (X) — Нг (X) = 4,86 п дв. ед. 18.7. Плотность вероятности случайного процесса х (t) имеет вид р1 (х) = Ке~Кх, х>0. Найти дифференциальную энтропию величины X. Ответ: Н (X) = log (е/Я). 18.8. Определить энтропию Н (X) случайной величины X, функ- функция распределения которой при х<0, РЛХ) = х2 при 0<х<1, 1 лри х> 1. Ответ: Н (X) = log (Vd2). 89 П 0 ( 18.9. Показать, что если система с нормальным распределением координаты переходит из состояния, при котором ох = alt в со- состояние, при котором вх = <т2, то приращение энтропии АН = Н2 (X) — Ях (X) = log 18.10. Найти дифференциальную энтропию случайной величи- величины Y = A sin a>t, где t равномерно распределено в интервале от — я/со до я/со; Л и со — положительные постоянные. Ответ [62]: Н (Y) = 1п (лЛ/2). 18.11. Определить условную дифференциальную энтропию Н (Х\у) и среднюю условную дифференциальную энтропию Н (X У) случайной величины X относительно Y, а также Н (Y\x) и Н (Y X) случайной величины Y относительно X для системы (X, Y) гауссов- ских случайных величин. Ответ: И (Х\У) = Н (X\Y) = log [(Гж/2яе A - Rly)}; Н (Y\x) = H (Y\X) = log [ 528 где ах и Gy — средние квадратические значения; Rxy — коэффи- коэффициент корреляции между X и Y. 18.12. Найти дифференциальную энтропию Н (X) равномерно- равномерного распределения на отрезке @, 2) и энтропию суммы двух независи- независимых случайных величин X и Y, равномерно распределенных на указанном интервале. Ответ: Н (X) = 1 дв. ед., Я (X, Y) = 2 дв.ед. 18.13. Радиоприем осуществляется на две антенны, разнесен- разнесенные в пространстве так, что сигналы х (t) и у (t) в ветвях статистиче- статистически независимы. Определить энтропию Н (Z) колебания z (t) на выходе сумми- суммирующего устройства, если х (t) и у (t) распределены по нормальному закону с нулевыми математическими ожиданиями и дисперсиями el = 16 В2 и el = 25 В2. Ответ: Н (Z) ~ 4,73 дв. ед. 18.14. Показать, что если Y = X ± с, где с— постоянная ве- величина, или Y = — X, то Н (Y) = Н (X). 18.15. Измерительное устройство вырабатывает случайный сиг- сигнал х (t) с нормальной плотностью вероятности и корреляционной функцией вида Rx (г) = tfj?e-altl. Определить энтропию сигнала и его изытбочность, вызванную наличием корреляции, если ох = 6 В. Ответ [116]: Н (X\Y) = 4,52 дв. ед., R = 0,024. 18.16. Ансамбль сигналов, проходящих через усилитель, имеет значения, ограниченные сверху величиной х — Ь и снизу — ве- величиной х = а. Найти максимальную энтропию Нт (X) и энтропию Н (X) на единицу времени, если ширина полосы пропускания усилителя рав- равна F. Ответ: Нт (X)=log (b—а) дв. ед., Н (X) = 2F log (b—а) дв. ед. 18.17. Передаваемые сигналы ограничены по пиковой мощности. Определить распределение, которое при данном ограничении обла- обладает максимальной энтропией, а также вычислить энтропию при этом распределении. Ответ: рх (х) = 1/2}/"р^, Н (X) = In 2V~P^, где Рт — пико- пиковая мощность. 18.18. Сигнал с математическим ожиданием тх может прини- принимать только положительные значения [pt (х) = 0 при х< 0]. Найти распределение, которое при данных ограничениях обла- обладает максимальной энтропией. Ответ: Pl(x) = — e-x/mx. тх 18.19. Показать, что при заданной энтропии нормальное рас- распределение вероятностей "Me-w имеет наименьшую из всех одномерных распределений дисперсию. 529
18.20. Определить максимально возможную скорость переда- передачи информации по радиотехническому каналу связи пункта управле- управления с телеуправляемой ракетой, если полоса пропускания канала связи равна 3 МГц, а минимальное отношение сигнал/шум по мощ- мощности в процессе наведения ракеты на цель равно трем. Ответ: С = 6 • 10е дв.ед./с. 18.21. Вычислить пропускную способность канала связи с ам- амплитудно-импульсной модуляцией, если число уровней сигнала 16, полоса частот исходного сигнала Fs, сигнал равномерно распределен на интервале (— f/м, + Ум.), а вероятность искажения, выражаю- выражающая возможность перехода в соседний уровень, 5%. Ответ [119]: С = 8,5 дв. ед. 18.22. Сравнить пропускные способности двух каналов связи, если в первом действует белый гауссовский шум в полосе'/7 с дис- дисперсией (Г2 = 1 В2, а во втором — белый шум, равномерно распре- распределенный в интервале ± 1,5 В с полосой IF. Считать, что мощность передаваемого сигнала Ps велика по сравнению с мощностью шумов. N2 1 Ответ: Сг — С2 = F log -2-, N9 = —— e««*3, Р9 2яе где d и С2 — пропускные способности первого и второго каналов. приложения ПРИЛОЖЕНИЕ 1 1 / Х2 Таблица нормальной плотности вероятности рх(х)= ,__ ехр — — X 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 ,3 ,4 ,5 ,6 ,7 ,8 ,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,7 3,8 3,9 0 0,3989 3970 3910 3814 3683 3521 3332 3123 2897 2661 0,2420 2179 1942 1714 1497 1295 1109 0940 0790 0656 0,0540 0440 0355 0283 0224 0175 0136 0104 0079 0060 0,0044 0033 0024 0017 0012 0009 0006 0004 0003 0002 1 3989 3965 3902 3802 3668 3503 3312 3101 2874 2637 2396 2155 1919 1691 1476 1276 1092 0925 0775 0644 0529 0431 0347 0277 0219 0171 0132 0101 0077 0058 0043 0032 0023 0017 0012 0008 0006 0004 0003 0002 2 3989 3961 3894 3790 3653 3485 3292 3079 2850 2613 2371 2131 1895 1669 1456 1257 1074 0909 0761 0632 0519 0422 0339 0270 0213 0167 0129 0099 0075 0056 0042- 0031 0022 0016 0012 0008 0006 0004 0003 0002 3 3988 3956 3885 3778 3637 3467 3271 3056 2827 2589 2347 2107 1872 1647 1435 1238 1057 0893 0748 0620 0508 0413 0332 0264 0208 0163 0126 0096 0073 0055 0040 0030 0022 0016 ООП 0008 0005 0004 0003 0002 4 3986 3951 3876 3765 3621 3448 3251 3034 2803 2565 2323 2083 1849 1626 1415 1219 1040 0878 0734 0608 0498 0404 0325 0258 0203 0158 0122 0093 0071 0053 0039 0029 0021 0015 ООП 0008 0005 0004 0003 0002 5 3984 3945 3867 3752 3605 3429 3230 ЗОН 2780 2541 2299 2059 1824 1604 1394 1200 1023 0863 0721 0596 0488 0396 0317 0252 0198 0154 0119 0091 0069 0051 0038 0028 0020 0015 0010 0007 0005 0004 0002 0002 Т- 6 3982 3939 3857 3739 3589 3410 3209 2989 2756 2516 2275 2036 1804 1582 1374 1182 1006 0848 0707 0584 0478 0388 0310 0246 0194 0151 0116" 0088 0067 0050 0037 0027 0020 0014 0010 0007 0005 0003 0002 0002 7 3980 3932 3847 3726 3572 3391 3187 2966 2732 2492 2251 2012 1781 1561 1354 1163 0989 0833 0694 0573 0468 0379 0303 0241 0189 0147 0113 0086 0065 0048 0036 0026 0019 0014 0010 0007 0005 0003 0002 0002 8 3977 3925 3836 3712 3555 3372 3166 2943 2709 2468 2227 1989 1758 1539 1334 1145 0973 0818 0681 0562 0459 0371 0297 0235 0184 0143 ОНО 0084 0063 0047 0035 0025 0018 0013 0009 0007 0005 0003 0002 0001 9 3973 3918 3825 3697 3538 3352 3144 2920 2685 2444 2203 1965 1736 1518 1315 1127 0957 0804 0669 0551 0449 0363 0290 0229 0180 0139 0107 0081 0061 0046 0034 0025 0018 0013 0009 0006 0004 0003 0002 0001 531
со t^ — to oo смюоо^нсо to oo о ~ч со -Ф ю to r^ г-- оообоо l/JlOtOtOtO Nt^t-0000 О0ООСЛСЛСЛ СЛСЛСЛСЛСЛ СЛСЛСЛ ООООО ООООО ООООО ООООО ООО е О) те со о —¦ —' о оо со t^ — -* ЮЮ(О О b- COtOlO -)—. CM OtO «to oo — со ¦ t— 00 00 ~ч tO СЛ О t^ CM tO 1О 00 СЛ —< СО 00 00 00 СЛ СЛ СЛ to -ф СЛ — CN СО СМ СЛ tO -ф lOtOtO t-- СГ> СГ> СП <У> СП ооооо ооооо ооо СЛ Ю CN) tO СО 0О 00 О t^. to -#оо О ЮОО СЛ t^ -# ~ч -ф С*~ О СО b- b- t^ 00 00 NOOCOCN t^ СЛ 00 -ФСЛ Ю Г~СЛ -ч CM 00 00 00 СЛ СЛ ел ¦* -#to оо t-~ Ю tO CM tO —•CN—'СЛЮ ¦*mtr> to ь *mtr o ь СЛ СГ>СЪ СЛ СЛ о юоо 00 00 00 СП СП СП ооооо ооооо ы S S ы ? - СЛ СЛ v; о к t=t ел со to < со со Г" см сое . . юю со «о со см ю toS « *ONOtO lO b- СЛ ~ч СМ 00 00 0О ОЭ СЛ СМ -# OtO О to юоо юо о — ооо ю -фю to to t- СЛ СЛ СЛ СЛ СЛ О ~н СЛ COtO О о те оо оооо оо <Л СП СП ооооо ооооо ооооо ооо слео t^ ooco СЛ СЛ 0О to СО Ю СЛ со t*-« ю to to > _ .. .)-н ММЮ О N ОО >—I О ThCDCOLQTf СОО)ЮООО CN Ю О ¦—'00 СО ОО ^ СОЮ^СОО Ю 00 О CD СО О CN CN CD Ю OOCDCDNCO CDC0N ^-< LO CD CO N1 C> CO t4» CD CN lO (•¦-. CD ^i CN CO ^ LO CO N> t4» 00 00 ЮЮЮСОСО NNNNOO OOoOOOCDCD CDCDCDCDCD CDCDCD ooooo ooooo ooooo ooooo ooo CD NCO NOO е S I н к о a I со p CO COCOOOOO) Ol Ю 00 00 О со оо оо со со CO -^ Ю CO t^- O Oi Oi O) Oi NQ0 00 О О О) ооооо ооооо ОСОт'ЮСО 00 Г- Ь-Ю (N fOOCM СО OTf ю ю ю со со o"o"o"o*o* Ю -^ CM CJJ СМ оо см -* со ^ OlCO COOJ СМ СО b- t— W ОО -^ 00 ООО» t- t--. CO CM СО (О ю ь- ь- ю см СО Tf Ю СО г— Oi СП Oi O> О COON GO CO CO ь-оооо CD CD CD ооооо ооооо ооооо ооо ooooo ooooo ooooo ooooo ooo ~ NCN C_ N NOO 00 CD CD CD CD ^ CD О CO N OO ^j 00 CO CD Tf4 LO t4» ^^ *""¦' CD CO CO CD CN CN ^^ CN ^* ^S CN CM »—< ^^ OCDOiNLO ilOCOOOlO ^^^*Tt*COCD СОЮЮ'Ф^н NCNCO О CO N ¦—' Ю OKNlOOO- tMDOOO-^ CO-^lOCON NOOOO ЮЮЮСОСО COt" " "- ~ > N N N OO OOOOOOCDCD CD СОЮ CD CD CD CD N N00 00 CD CD CD CD ooo 532 toco t ' -co —' Г--Ю -ФЮ OCNtCNO CM -fCO OtO lO tO N 00 00 ОО^СЛО OOtO OOCN-^tO t^ 00 CDCD CDCDCDCDCD CDCDCDCDO» CDCDCDCDCD CDCDCTjCDCD oo"o"o"'o"' Ю CO О CO CO CO CO <—' CD CD CO 00 ~* CO LOCO N00 00 CO CO O t^- CD CO 00 CO ¦* CM ^Cp b- CDCD CDCDCDCDCD CDCDCDCDCD CN ¦* CD N ¦* CN 00 ~^ N lO 00 00 CN TfCO CD CD CD CD CD 00 CM Ю CO OO ¦rt* -rt* un CO CO г-ю со о см ** чЛ 1в 1в Ю CD CD CD CD CD ю со ю со -^ t— CO CO CD CM CO LO CM CO 00 t— 00 ^^ ¦* CO iO л «> да «о CD CD CD CD CD ooooo l& \>. \>. CO ¦** CD CN —< CDlO Tf CO NN 00 M (N (N (N (N CD CD CD CD CD о оо со см oo CO f— CN ¦* CD CD CO CO CM CO OO CM ¦* CO b- cj rt rt to «0 CD CD CD CD CD lO t— 00 00 CO ¦~* 00 CO LO ^5 IM NOOlO^t* oo oo <—« ¦* со rt to ** ч* *# CD CD CD CD CD CD t-CO 00 СП ThN(N00 "- со ^см N NQOOCO T 4 u u OOOOO CO CO О CM CM CO CD r—i 00 CO tO —< 00 ¦* NNOO CO CM CD CO CD CD ^ CN О CD 00 ¦—' ^ ¦—' CN 00 CN Tt* CO iN to « to CD CD CD CD CD CO CD ¦* ^н CO -f СООСОЮ « b Ю CO CN CO CD 00 t— CN l<ON0)O ON0)O ¦* CD ¦* CD 00 00 CO Ю CN CD О—'Ю NOOOtftD ю «о да да (мсчммсч «torttort « ев Ч* ч* ** " 11 ю ^ ююеодада COCDCDCDCD CDCDCDCDCD CDCDCDCDCD CDCDCDCDCD CDCDCDCDCD o"o o"o о OOOOO OOOOO CD CD CD CD CD o~o"o"o"o CD 00 —i CO CO CO CO CO CD О Tf CO CD «—< N N00 00 CO Ю GO О CO N CD <—« ¦* 00 CN 00 CO CO Ol 00 CN N00 00 CO CO lA lA lO CO fj> CD CD CD CD CD ooooo N lO 00 ^ CD lO lO CM -rt* lO Tf 00 CD N CO -* Ю CO t- GO IN (N (N (N (N CD CD CD CD CD 00 Ю О 00 О CD NCD OOCO CD CO CD -^ CN CD CO t4» 00 CD t— 00 О CO Ю CD CD CD CD CD SCO CN CO CN CN CO 00 t— О CO CN 00 QOlO N OOOOCN Ю CD CD CD CD CD OOOOO OOOOO OOOOO OOOOO СЛ СЛ o~o~ ел CM 1 CO CO N О _ I N op COCO ¦^ lO CO N 00 (N (N СЧ (N (N CD CD CD CD CD N О О 00 CN N CO ^ч Ю 00 N CN 00 CO CD 00 —' С0Ю CO CD CD CD CD CD CN CO CO CO CO CN 00 CM CD Ю CD lO ^ LO N Г— 00 О CO Ю CD CD CD CD CD ^ CO CN - - ^ OOCO ¦* GO CN ^ ООЮ CN N 00 00 CN Ю CD CD CD CD CD ^н CN NCO CD lO N N N 00 O^ 00 ^ OO N 00 00 CO LO rt ifl Ю ® Ш CD CD CD CD CD OOOOO OOOOO CD CD CD CD CD CO N О CD CD CO Ю CD CD CO t— CD lO ¦* 00 00 О CO Ю CO « rt rt rt rt CD CD CD CD CD О CO 00 CD lO CD О N CD CO О^н N—'O N 00 00 CN Ю CD CD CD O"} CD 00 ^н ^ CN CO О 00 CM CN N CD О 00 00 CO CO 00 00 CN Ю in io л да «о CD CD CD O> CD OO OOOOO OOOOO S3 СЛ со со со со со CO N CO CN CD OtCpiO OO <m CD CD OltpO CO LO CO N 00 M C<J (N C<J СЧ CD CD CD CD CD ¦rt* CO CO lO CN CD -^t* CO CO lO CO CO CO CO N OO О CO Ю CO см to to rt to CD CD CD CD CD CD CD ^t* CN lO Ю CO CO Ю OO N ¦* CDO CO N GO Op СОЮ CD CD CD CD CD ¦* CNCO N^h CO cM см со -rf CD О N 00 00 CO 00 00 ^ ¦* ^t ^ ^ Ю >A CD CD CD CD CD OOOOO OOOOO ¦* CD CN>lO О NO CM CO CD CO ¦* CD N <—• N 00 OOCN Ю CD CD CD CD CD со -zp со со oo (NOOOlNCO О ОО СЛ CD О to oo to ocm tO C^ 00 CM lO э л ift a> «5 С СЪСЪ СЪ tO &> СЪ OOOOO s a. с 0—CMCO-* О-нСМСОтС ЮЮМЮО) cncm cncmcmcmcm cococococo coco со со со
ПРИЛОЖЕНИЕ III Процентные точки распределения %2 Р [xf>yj- a] = a k 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 Пр 1 0,990 0,00016 0,0201 0,115 0,297 0,554 0,872 1,24 1,65 2,09 2,56 3,05 4,57 4,П 4,66 5,23 5,81 6,41 7,01 7,63 8,26 8,90 9,54 10,20 10,86 11,52 12,20 12,88 13,56 14,26 14,95 22,16 37,48 86,92 я ?>120 центная точка 0,975 0.0009S 0,0506 0,216 0,484 0,831 1,24 1,69 2,18 2,70 3,25 3,82 4,40 5,01 5 63 6,26 6,91 7,56 8,23 8,91 9,59 10,28 10,98 11,69 12,40 13,12 13,84 14,57 15,31 16,05 16,79 24,43 40,48 91,58 f-k; a.—R | 0,950 0,0039 0,103 0,352 0,711 1,15 1,64 2,17 2,73 3,33 3,94 4,57 5,23 5,89 6,57 7,26 7,96 8,67 9,39 10,12 10,85 11,59 12,34 13,09 13,85 14,61 15,38 16,15 16,93 17,71 18,49 26,51 43,19 95,70 К- 1 ° 0 0 0 1 1 2 2 3 4 4 5 6 7 7 8 9 10 10 11 12 13 14 14 15 16 17 18, 18, 19, 20, 29, 46, а ,900 ,0158 ,211 ,584 ,06 ,61 ,20 ,83 ,49 .17 ,87 ,58 ,30 ,04 ,79 ,55 ,31 08 86 65 44 24 04 85 66 47 29 11 94 77 60 05 46 100,62 • V- 1 °' 2 4 6 7 9 10 12 13 14 15 17 18 19 21 22 23 24 25 27 28 29 30 32 33 34 35, 36, 37, 39, 40, 51, 74, 140, 9k \ 0 ,71 ,61 ,25 ,78 ,24 ,64 ,02 ,36 ,68 ,99 ,28 55 ,81 06 ,31 54 77 99 20 41 62 81 01 20 38 56 74 92 09 26 81 40 23 , г; | о,( 3 5 7 9 11 12 14 15 16 18 19 21 22 23 25 26 27 28 30 31 32 33 35 36 37 38, 40, 41, 42, 43, 55, 79, 146, M ,84 ,99 ,81 ,49 ,07 ,59 ,07 ,51 ,92 ,31 ,68 ,03 ,36 68 ,00 30 59 87 14 41 67 92 17 42 65 88 11 34 56 77 76 08 57 нормированного гауссовского распределения 1 «.с 5 7 9 11 12 14 16 17 19 20 21 23 24 26 27 28 30 31 32 34 35 36 38 39, 40 41, 43, 44, 45, 46, 59, 83, 152, 25 ,02 ,38 ,35 ,14 ,83 ,45 ,01 ,53 ,02 ,48 ,92 ,34 74 12 49 85 19 53 85 17 48 78 08 36 65 92 19 46 72 98 34 30 21 жданная 1 0> 6 9 11 13 15 16 18 20 21 23 24 26 27 29 30 32 33 34 36 37 38 40 41 42 44 45, 46, 48, 49, 50, 63, 88, 158, 010 ,63 ,21 ,34 ,28 ,09 ,81 ,48 ,09 ,67 ,21 ,73 ,22 69 ,14 58 00 41 81 19 57 93 29 64 98 31 64 96 28 59 89 69 38 95 про- 534 ПРИЛОЖЕНИЕ IV Процентные точки /-распределения Стьюдента Р [tfi>tk. а] = « к 1 2 з 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 Значен ия соотношением о, ю | 3,078 1,886 1,638 1,533 1,476 1,440 1,415 1,397 1^383 1,372 1,363 1,356 1,350 1,345 1,341 1,337 1 333 1,330 1,328 1,325 1,323 1,321 1,319 1,318 1,316 1,315 1,314 1,313 1,311 1,310 1,303 1,296 1,289 « = 0,995; '*! 1-а = 0.050 | 6,314 2,920 2,353 2,132 2,015 1,943 1,895 1 860 1,833 1,812 1,796 1,782 1,771 1,761 1,753 1,746 1,740 1,734 1,729 !,725 1,721 1,717 1,714 1,711 1,708 1,706 1,703 1,701 1,699 1,697 1,684 1,671 1,658 0,990; 0,975 = -'*:«. У. 0,025 | 12,706 4,303 3,182 2,776 2,571 2,447 2,365 2,306 2,262 2,228 2,201 2,179 2,160 2,145 2,131 2,120 2,110 2,101 2,093 2,086 2,080 2,074 2,069 2,064 2,060 2,056 2,052 2,048 2,045 2,042 2,021 2,000 1,980 , 0,950 и О,? 100 о, 31, 6, 4, 3, 3, 3, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2 2 2 2 2 2 2 2 2 2. 2 2 2 2 010 | 821 965 541 747 365 143 998 896 821 764 718 681 650 624 602 583 567 552 539 528 518 508 500 492 485 479 ,473 ,467 ,462 ,457 ,423 ,390 ,358 получают 0,005 63,657 9,925 5,841 4,604 4,032 3,70? 3,499 3,355 3,250 3,169 3,106 3,055 3,012 2,977 2,947 2,921 2,898 2,878 2,861 2,845 2,831 2,819 2,807 2,797 2,787 2,779 2,771 2,763 2,756 2,750 2,704 2,660 2,617 , пользуясь 535
10. 11. 12. 13. 14. 15. 16. 17. 18. 19. СПИСОК ЛИТЕРАТУРЫ Тихонов В. И. Статистическая радиотехника. — М.: Сов. радио, 1966. — 678 с Яглом А. М., Яглом И. М. Вероятность и информация. — М,: Наука, 1973. -512 с. Вентцель Е. С. Теория вероятностей: Учебник для вузов — 3-е изд., испр. — М.: Наука, 1964— 576 с. Сборник задач по теории вероятностей, математической статистике и теории случайных функций: Учеб. пособие для вузов/Б. Г. Володин, М. П. Ганин, И. Я- Динер и др.; Под ред. А. А. Свешникова. — М.: Наука, 1965. — 632 с. . Феллер В. Введение в теорию вероятностей и ее приложения, т. I; Пер. с англ./Под ред. Е. Б. Дынкина. — М.: Мир, 1967. — 498; т. 2; Пер. с англ./Пер. Ю. В. Прохорова. — М.: Мир, 1967. — 752 с. . Крамер Г. Математические методы статистики: Пер. с англ./Под ред. A. Н. Колмогорова. — М.: Мир, 1975. — 648 с. Уилкс С. Математическая статистика: Пер. с англ./Под ред. Ю. В. Лин- ника. — М.: Наука, 1967. — 632 с. Хан Г., Шапиро С. Статистические модели в инженерных задачах: Пер. с англ./Под ред. В. В. Налимова. — М.: Мир, 1969. — 396 с. Статистические методы в экспериментальной физике: Пер. с англ./ B. Идье, Д. Драйард, Ф. Джеймс и др. Пер. под ред. А. А. Тяпкина. — М.: Атомиздат, 1976. — 336 с. Кен дал л М., Стюарт А. Теория распределений: Пер. с англ./ Под ред. A. Н. Колмогорова. — М.: Наука, 1966. — 588 с. Farison I. On calculating moments for some common probability laws. — IEEE Trans. 1965, v. IT-11, №4, p. 586—589. Прохоров Ю. В., Розанов Ю. А. Теория вероятностей: Основные поня- понятия, предельные теоремы, случайные процессы. — 2-е изд., перераб. — М.: Наука, 1973. — 496 с. Гнеденко Б. В. Курс теории вероятностей: Учебник для университетов. — 5-е изд., стереот. —М.: Наука, 1969. —400 с. Левин Б. Р. Теоретические основы статистической радиотехники. В 3-х кн. — т. 1. — М.: Сов. радио, 1974. — 550 с. Горяинов В. Т., Журавлев А. Г., Тихонов В. И. Примеры и задачи по статистической радиотехнике: Учебное пособие для вузов/Под ред. B. И. Тихонова. — М.: Сов. радио, 1970. — 600 с. Корн Г., Корн Т. Справочник по математике для научных работников и инженеров: Пер. с англ./Под ред. И. Г. Арамановича. — М.: Наука, 1968. — 720 с. Градштейн И. С, Рыжик И. М. Таблицы интегралов, сумм, рядов и про- произведений.— 5-е изд., перераб. —М.: Наука, 1971. — 1108 с. Вентцель Е. С; Овчаров Л. А. Теория вероятностей: Учеб. пособие для вузов. —2-е изд., стереот. —М.: Наука, 1973. —368 с. Рытов С. М. Введение в статистическую радиофизику: Учеб. пособие для вузов. — 2-е изд., перераб. и доп. — М.: Наука, 1976. — 496 с. 536 20. Смирнов Н. В., Дунин-Барковский И. В. Краткий курс математической статистики для технических приложений: Учебное пособие для вузов. М.: Физматгиз, 1959. — 436 с. 21. Митропольский А. К. Техника статистических вычислений.—2-е изд. перераб. и доп. —М.: Наука, 1971. *—576 с. 22. Тихонов В. И., Бакаев Ю. Н. Статистическая теория радиотехнических устройств: Учебник для вузов ВВС/ВВИА им. Н. Е. Жуковского. — М., 1978. —420 с. 23. Гмурман В. Е. Теория вероятностей и математическая статистика: Учеб. пособие для вузов. — 5-е изд., перераб. и доп. — М.: Высшая школа, 1977.— 499 с. 24. Гурский Е. И. Теория вероятдостей с элементами математической ста- статистики: Учеб. пособие для вузов. — М.: Высшая школа, 1971. — 328 с. 25. Бендат Дж., Пирсол А. Измерение и анализ случайных процессов: Пер. с англ./Под ред. И. Н. Коваленко. —М.: Мир, 1971. —408 с. 26. Тихонов В. И. Воздействие электрических флуктуации на нелинейные радиотехнические устройства.: Докт. дис. /ВВИА им. Н. Е. Жуков- Жуковского. — М., 1956. 27. Миддлтон Д. Введение в статистическую теорию связи, т. I. Пер. с англ./ Под ред. Б. Р. Левина. — М.: Сов. радио, 1961. — 782 с; т. 2, 1962. — 750 с. 28. Кузнецов П. И., Стратонович Р. Л.; Тихонов В. И. Прохождение неко- некоторых случайных функций через линейные системы. — Автоматика и телемеханика, 1953, т. 14, №2, с. 144—163. 29. Кузнецов П. И., Стратонович Р. Л., Тихонов В. И. Прохождение слу- случайных функций через нелинейные системы. — Автоматика и телеме- телемеханика, 1953, т. 14, №4, с. 375—391. 30. Гнеденко Б. В.; Колмогоров А. Н. Предельные распределения для сумм независимых случайных величин. —М.: ИТТЛ, 1949. —264 с. 31. Лезин Ю. С. О распределении случайных напряжений на выходе некоге- некогерентного накопительного устройства с экспоненциальной весовой функ- функцией. — Изв. вузов СССР. Радиотехника, 1960, № 6, с. 592—597. 32. Marcum J. I. A Statistical theory of target detection by pulsed radar. — IRE. Trans., 1960, v. IT-6, №2, p. 59—144. 33. Тихонов В. И., Горяинов В. Т. Детектирование случайных сигналов. — Радиотехника, 1966, т. 21, № 1, с. 31—46. 34. Деч Р. Нелинейные преобразования случайных процессов. Пер. с англ./ Под ред. Б. Р. Левина. — М.: Сов. радио, 1965. — 208 с. 35. Papoulis A. Probability, random variables and stochastic processes. — New- York: McGraw-Hill Book Co., 1965. — 583 p. 36. Rice S. O. Mathematical analysis of random noise. —BSTJ, 1944, v. 23, №3, p. 282—332; v. 24, № 1, p. 46—156. 37. Barret J. E., Lampard D. G. An expansion for some second-order probabi" lity distributions and its application to noise problems. — IRF Trans- 1955, v. IT-1, № 1, p. 10—15. 38. Ватсон Г. Н. Теория бесселевых функций. — М.: ИЛ, 1949. — 798 с. 39. Янке Е., Эмде Ф., Леш Ф. Специальные функции. Пер. с нем./Под ред. Л. И. Седова. — М.: Наука, 1964. — 344 с. 40. Расщепляев Ю. С. Синтез моделей случайных процессов для исследования систем при помощи ЦВМ. — Радиотехника и электроника, 1975, т. XX, № 1, с. 188—192. 41. Бендат Дж. Основы теории случайных шумов и ее применение. Пер.: с англ. Под ред. В. С. Пугачева. — М.: Наука, 1965. — 464 с. 42. Давенпорт В. Б., Рут В. Л. Введение в теорию случайных сигналов и шу- шумов: Пер. с англ./Под ред. Р. Л. Добрушина.— М.: ИЛ, 1960. — 468 с. 43. Расщепляев Ю.С., Фандиенко В. Н. О построении моделей стационарных случайных процессов для исследования системтуправления. — Изве- Известия АН СССР. Техническая кибернетика, 1974, № 1, с. 224—231 537
44. Жуков В. П., Карташев В. Г., Николаев А. М. Сборник задач по курсу «Радиотехнические цепи и сигналы»: Учебн. пособие для вузов/ Под ред. А. М. Николаева. — М.: Сов. радио, 1972. — 192 с. 45. Тихонов В. И., Миронов М. А. Марковские процессы. — М.: Сов. радио 1977. — 488 с. 46. Баруча-Рид А. Т. Элементы теории марковских процессов и их приложе- приложения. Пер. с англ./Под ред. А. Н. Ширяева. — М.: Наука, 1969. — 511с. 47. Карлин С. Основы теории случайных процессов: Пер. с англ. /Под ред. И. Н. Коваленко. — М.: Мир, 1971. — 536 с. 48. Сох D. R., Miller H. D. The theory of stochastic processes. — London- Methuen, 1965. — 398 p. 49. Тихонов В. И., Кульман Н. К- Нелинейная фильтрация и квазикогерент- квазикогерентный прием сигналов. —М.: Сов. радио, 1975. —704 с. 50. Френке Л. Теория сигналов: Пер. с англ./Под ред. Д. Е. Вакмана. — М.: Сов. радио, 1974. — 344 с. 51. Kaufman H., King E. H. Spectral power density functions in pulse time modulation. — IRE Trans. 1955, v. IT-1, № 1, p. 40—46. 52. Macfarlane G. G. On the energy-spectrum of an almost periodic -succession of pulses. — Proc. IRE, 1949, v. 37, № 10, p. 1139—1143. 53. ГОСТ 13377—75. Надежность в технике. Термины и определения. 54. Козлов Б. А., Ушаков И. А. Справочник по расчету надежности аппара- аппаратуры радиоэлектроники и автоматики. — М.: Сов. радио, 1975. — 472 с. 55. Справочник по теоретическим основам радиоэлектроники в 2-х т./ А. А. Барыбин, О. Г. Вендик, Б. Н. Горин и др.; Под ред. Б. X. Кри- вицкого, В. Н. Дулина. — М.: Энергия, 1977. Т. 1 — 504 с. 56. Сборник задач по теории надежности/А. М. Половко, И. М. Маликов, А. Н. Жигарев, В. И. Зарудиый; Под ред. А. М. Половко, И. М. Мали- кова. — М.: Сов. радио, 1972. — 408 с. 57. Теория надежности радиоэлектронных систем в примерах и задачах: Учеб. пособие для вузов/Г. В. Дружинин, С. В. Степанов, В. Л. Шихма- това, Г. А. Ярыгин; Под ред. Г. В. Дружинина. — М.: Энергия, 1976. — 448 с. 58. Сотсков Б. С. Основы теории и расчета надежности элементов и устройств автоматики и вычислительной техники: Учебное пособие для вузов. — М.: Высшая школа, 1970. —270 с 59. Гнеденко Б. В., Коваленко И. Н. Введение в теорию массового обслужи- обслуживания. — М.: Наука, 1966. — 432 с. 60. Саати Т. Элементы теории массового обслуживания и ее приложения. Пер. с англ./Под ред. И. Н. Коваленко и Р. Д. Когана. — М.: Сов. радио, 1965. — 510 с. 61. Кокс Д. Р., Смит В. Л. Теория восстановления. Пер. с англ./Под ред. Ю. К- Беляева. — М.: Сов. радио, 1967. —300 с 62. Емельянов Г. В., Скитович В. П. Задачник по теории вероятностей и ма- математической статистике: Учеб. пособие для университетов. — Л.: ЛГУ им. А. А. Жданова, 1967. — 332 с. 63. Розенберг В. Я-, Прохоров А. И. Что такое теория массового обслужива- обслуживания. — М.: Сов. радио, 1962. — 254 с. 64. Свешников А. А. Прикладные методы теории случайных функций. — М.: Наука, 1968. —464 с. 65. Горяинов В. Т. Воздействие на линейную систему отрезка квазигармо- иических флуктуации в смеси с белым шумом. — Радиотехника, 1966, т. 21, № 6, с. 1—6. 66. Чайковский В. И. Энергетический спектр суммы запаздывающих стохас тических сигналов. —Изв. вузов СССР, Радиотехника, 1965, т. VIII № 1, с. 87—98. 67. Тепляков И. М. Радиотелеметрия. —М.: Сов. радио. 1966. —312 с- 68. Wohman W. M., Fuller A. T. Probability densities of the smoothed «Random telegraph signal». — Journ. Electrics and Control, 1958, v. 4, № 6, p. 567— 576. 538 i 69. Леонов В. П., Ширяев А. Н. К технике вычисления семиинвариантов. — Теория вероятностей и ее применение, 1959, т. 4, вып. 3, с. 342—355. 70. Таблицы функции ошибок и ее первых двадцати производных. Пер. с англ./Пер. Л. С. Барк и Л. Н. Большева. — М.: Изд. ВЦ АН СССР, 1965. —276 с. 71. Слейтер Л. Дж. Вырожденные гипергеометрические функции: Пер. с англ./ Пер. М. К- Керимова. — М.: Изв. ВЦ АН СССР, 1966. —250 с. 72. Амиантов И. Н., Тихонов В. И. Воздействие нормальных флуктуации на типовые нелинейные элементы. — Изв. АН СССР. ОТН, 1956, № 4, с. 33—41. 73. Тихонов В. И., Амиантов И. Н. Воздействие сигнала и шума на нелиней- нелинейные элементы (прямой метод). — Радиотехника и электроника, 1957, т. II, № 5, с. 579—590. 74. Price R. A useful theorem for nonlinear devices having gaussian inputs. — IRE Trans. 1958, v. IT-4, №2, p. 69—72. 75. Ralston G. Addition of uniform and gaussian distributions — exact and approximate solutions. —Proc. IEEE, 1966, v. 54, №7, p. 647—654. 76. Morgan S. P. Tables of Bessel functions of imaginary order and imaginaru argument. — Institute of Technology, California, 1947. — 61 p. 77. Билык М. Г. Корреляционная функция случайного нормального процес- процесса на выходе логарифмического устройства. ¦— В кн.: Проблемы пере- передачи квазистационарных сигналов. — Киев: Изд. АН УССР, 1967, 180 с. 78. Кратцер А., Франц В. Трансцендентные функции: Пер. с нем./Пер. Н. Я. Виленкина. — М.: ИЛ, 1963. —466 с. 79. Baum R. F. The correlation function of smoothly limited gaussian noise. — IRE Trans., 1957, v. IT-3, №3, p. 193—197. 80. Данилин Б. В., Михайлов Ю. П. Воздействие флуктуации на систему ог- ограничитель — инерционная цепь RC. — Изв. вузов СССР. Радиотех- Радиотехника, 1966, т. 8, № 6, с. 668—675. 81. Cooper D. С. The probability density function for the output of a correla- correlator with band-pass input waveforms. — IEEE Trans., 1965, v. IT-11, №2, p. 190—195. 82. Лезин Ю. С. Оптимальные фильтры и накопители импульсных сигна- сигналов. — М.: Сов. радио, 1969. — 446 с. 83. Тихонов В. И. Выбросы случайных процессов. — М.: Наука, 1970. — 392 с. 84. Колмогоров А. Н. Интерполирование и экстраполирование стационарных случайных последовательностей.— Изв. АН ССР Сер. математическая, 1941, № 5, с. 3—14. 85. Wiener N. Extrapolation, interpolation and soothing of stationary time series. — New-York: John Wiley, 1949— 162 p. 86. Солодовников В. В. Статистическая динамика линейных систем автома- автоматического управления. — М.: Физматгиз, 1960. — 656 с. 87. Лэнинг Дж. X., Бэттин Р. Г. Случайные процессы в.задачах автоматиче- автоматического управления: Пер. с англ./Под ред. В. С. Пугачева. — М.: ИЛ, 1958—388 с. 88. Пугачев В. С. Теория случайных функций и ее применение к задачам ав- автоматического регулирования. — М.: Физматгиз, 1960. — 884 с. 89. Ван Трис Г. Теория обнаружения, оценок и модуляции: Пер. с англ./ Под ред. В. И. Тихонова. Т. I. — М.: Сов. радио, 1972. — 744 с. 90. Turin G. L. An introduction to matched filters. —IRE Trans., 1960, v. IT-6, № 3, p. 311—329. 91. Гуткин Л. С. Теория оптимальных методов радиоприема при флуктуацион- ных помехах. — М.: Сов. радио, 1972. — 448 с. 92. Витерби Э. Д. Принципы когерентной связи: Пер. с англ. /Под ред. Б. Р. Левина. — М.: Сов. радио, 1970. — 392 с. 93. Горяинов В. Т. Отношение сигнал/шум на выходе линейной системы при расстроенном входном сигнале. — Радиотехника, 1966, т. 21, № 6, с. 1—9. 539
I 94. Котельников В. А. Теория потенциальной помехоустойчивости. — М,: Госэнергоиздат, 1956. — 152 с. 95. Вудворд Ф. М. Теория вероятностей и теория информации с применения- применениями в радиолокации: Пер. с англ./Под ред. Г. С. Горелика. — М.: Сов. радио, 1955, — 128 с. 96. Амиаитов И. Н. Избранные вопросы статистической теории связи. — М.: Сов. радио, 1971. — 416 с. 97. Хелстром К. Статистическая теория обнаружения сигналов: Пер. с англ./ Под ред. Ю. Б. Кобзарева. — М.: ИЛ, 1963. —432 с. 98. Фалькович С. Е. Прием радиолокационных сигналов на фоне флуктуа- ционных помех. — М.: Сов. радио, 1961. —310 с. 99. Вальд А. Последовательный анализ. Пер. с англ./Под ред. Б. А. Сева- Севастьянова. — М.: Физматгиз, 1962. —328 с. 100. Башаринов А. Е., Флейшман Б. С. Методы статистического последова- последовательного анализа и их приложения. — М.: Сов. радио, 1962. — 352 с. 101. Helstrom С. W. The Resolution of Signals in White Gaussian Noise. — Proc. IRE, 1955, v. 43, №9, p. 1111 — 1118. 102. Таблицы распределения Релея—Райса/Л. С. Барк, Л. Н. Большее, П. И. Кузнецов и др. — М.: Изд. ВЦ АН СССР, 1964. — 246 с. 103. Turin G. L. Error probabilities for binary symmetric ideal reception through nonselective slow fading and noise. — Proc. IRE, 1958, v. 46, №9, p. 851—857. 104. Константинов П. А. Помехоустойчивость систем связи с тональной ма- манипуляцией при идеальном приеме. —Радиотехника, 1961, т. 16, № 11, с. 18—25. 105. Хальд А. Математическая статистика с техническими приложениями: Пер. с англ./Под ред. Ю. В. Линника. — М.: ИЛ, 1956. — 664 с. 106. Ван дер Варден Б. Л. Математическая статистика: Пер. с иемец./Под ред. Н. В. Смирнова. — М.: ИЛ, 1960. —436 с. 107. Дунин-Барковский И. В., Смирнов Н. В. Теория вероятностей и мате- математическая статистика в технике. — М.: Гостехиздат, 1955. — 556 с. 108. Куликов Е. И., Трифонов А. П. Оценка параметров сигналов на фоне помех. — М.: Сов. радио, 1978. — 256 с. 109. Галлагер Р. Теория информации и надежная связь: Пер. с англ./Под ред. М. С. Пинскера, Б. С. Цыбакова.—М.: Сов. радио, 1974. — 720 с. ПО. Фаио Р, Передача информации. Статистическая теория связи: Пер. с англ./Под ред. Р. Л. Добрушина. — М.: Мир, 1965. — 439 с. 111. Харкевич А. А. Борьба с помехами. — М.: Наука, 1965. — 276 с. 112. Мешковский К- А., Кириллов Н. Е. Кодирование в технике связи. — М.: Связь, 1966. — 324 с. 113. Цымбал В. П. Теория информации и кодирование: Учеб. пособие для вузов. — 2-е изд. испр. и доп. — Киев: Вища школа, 1977. — 288 с. 114. Шляпоберский В. И. Элементы дискретных систем связи. —М.: Воен- издат, 1962. — 236 с. 115. Тарасенко Ф. П. Введение в курс теории информации. — Томск: ТГУ им. В. В. Куйбышева, 1963. — 240 с. 116. Солодов А. В. Теория информации и ее применение к задачам автома- автоматического управления и контроля. —М.: Наука, 1967. — 432 с. 117. Голдман С. Теория информации: Пер. с англ./Под ред. В. В. Фурдуе- ва. — М.: ИЛ, 1957. — 446 с. 118. Клюев Н. И. Информационные основы передачи сообщений. —М.: Сов. радио, 1966. — 360 с. 119. Орлов В. А., Филиппов Л. И. Теория информации в упражнениях и за- задачах: Учеб. пособие для вузов. — М.: Высшая школа, 1976. — 136 с. 120. Акулиничев Ю. П., Дроздова В. И. Сборник задач по теории информа- информации. — Томск, ТГУ им. В. В. Куйбышева, 1976. — 114 с. 30 Безынерционный преобразователь 339 Белый шум 162 Блуждания случайные 187 Вариационный ряд 108 Вероятность апостериорная 8 — априорная 8 — безотказной работы 7, 249 — доверительная 113 — ложной тревоги 448 — отказа 250 — ошибок 448 — пере\ода 98, 179 — правильного решения 448 — финальная 181 Взаимная корреляционная функция 145 Время обслуживания заявки 258 — первого достижения границ |84 Выборочные значения 108 — моменты 109 Выброс случайного процесса 392 Гистограмма 108 Дельта-функция 28 Детектор безынерционный квадратичный 347 линейный 362 — синхронный 331 Дисперсия случайной величины 28 — случайного процесса 130 Доверительный интервал 113 Закон распределения вероятностей 26, условный 77 Импульсная характеристика 276 оптимального фильтра 414 согласованного фильтра 417 Интеграл вероятности 27, 341 Интенсивность отказов 250 Интервал корреляции 145 Квантование 231, 356 Ковариационная функция 129 Комплексная частотная характеристика 282 оптимального фильтра 414 согласованного фильтра 416 Корреляционная матрица 80 Корреляционная функция 130 нормированная i45 огибающей 324 узкополосного процесса 321 Корреляционный момент 79 Коэффициент асимметрии 48 — готовности 252 — избыточности 501 — корреляции 79 — простоя 253 — сноса и диффузии 183 — эксцесса 48 Критерий Байеса 448 — идеального наблюдателя 114, 448 — Неймана—Пирсона 114, 448 — согласия 108 Математическое ожидание 28, 129 Моментные функции 129, 130 Моменты случайной величины 29 абсолютные 29, 78 начальные 29, 78 условные 79 факториальные 29, 78 центральные 29, 78 Надежность оценки ИЗ Неравенство Рао—Крамера 484 Огибающая узкополосного процесса 320, 321 Ограничитель 350, 359, 363 Оптимальная линейная фильтрация 412, 415 Отношение правдоподобия 115, 445 — сигнал/шум 416 Оценка интервальная ПО — несмещенная 111, 484 — параметров распределения 107, ПО — состоятельная 111 — точечная ПО ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ — эффективная 111, 484 Параметр интенсивности 206 — потока отказов 252 Параметры сигнала несущественные 446 энергетические 487 Плотность (распределения) вероятностей 26 двумерная 75, 132 нормальная 27, 128, 132, |36 огибающей 323 условная 77 фазы 323 — отказов 250 — потока 257 Поток восстановления 258 — входной 257 — заявок 257 — Пальма 258 — простейший 257 — Эрланга 239, 258 Процесс марковский 176 — рождения и гибели 190 — пуассоиовский 205 — узкополосный 320 Распределение многомодальное 29 — статистическое ПО Семиинварианты 48 Сигнал двоичный 467 случайный 188 — квазислучайный телеграфный 196 — случайный фототелеграфный 226 Систематическая ошибка 111 Случайная величина 26 дискретная двумерная 74 многомерная 74 центрированная 28 Случайный процесс гауссовский 131 дифференцируемый 148 комплексный 144 непрерывный 148 стационарный 131 центрированный 130 Спектральная плотность 146 Среднее арифметическое отклонение 48 — время безотказной работы 250 — время восстановления 252 — квадратическое отклонение 29 Средний квадрат ошибки фильтрации 413 Тождество В а льда 208 Точность оценки 113 Уравнение интегральное Абеля 133 Винера — Хопфа 414 Фредгольма 414 — Маркова 180 — Фоккера—Планка—Колмогорова 183 Уровень значимости 109 Условие нормировки 128 — симметрии 128 — согласованности К8 — положительной определенности 128 Фильтр оптимальный 412 — прогнозирующий 413 — сглаживающий 413 — согласованный 416 Формула Винера—Хинчина 147 — Кемпбелла 209 Функционал плотности вероятности 445 — правдоподобия 445 Функция надежности 249 — правдоподобия 486 — распределения вероятностей 26, 75 Характеристическая функция 28, 50. 128 131 Цепь Маркова 179, 186 Ширина спектральной плотности 148 эффективная 148 Энтропия 29. 497, 516 Якобиан, Преобразования 81, 340 541
СОДЕРЖАНИЕ Предисловие ко второму изданию '. 3 РАЗДЕЛ I. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 4 1. Основные определения и теоремы теории вероятностей .... 4 1. Теоретические сведения 4 2. Примеры Ю 3. Задачи и ответы 19 2. Законы распределения и числовые характеристики одномерных случайных величин 26 1. Теоретические сведения 26 2. Примеры 56 3. Задачи и ответы 67 3. Законы распределения и числовые характеристики многомерных случайных величин 74 1. Теоретические сведения 74 2. Примеры 84 3. Задачи и ответы 98 4. Основы математической статистики 107 1. Теоретические сведения 107 2. Примеры 115 3. Задачи и ответы 122 РАЗДЕЛ II. СЛУЧАЙНЫЕ ПРОЦЕССЫ 128 5. Законы распределения и моментные функции 128 1. Теоретические сведения 128 2. Примеры 132 3. Задачи и ответы 136 6. Корреляционные функции и спектральные плотности 143 1. Теоретические сведения 143 2. Примеры 150 3. Задачи и ответы 157 7. Марковские случайные процессы 176 1. Теоретические сведения 176 2. Примеры 186 3. Задачи и ответы 193 8. Точечные и импульсные случайные процессы 205 1. Теоретические сведения 205 2. Примеры 224 3. Задачи и ответы 236 542 9. Основы теории надежности и массового обслуживания 1. Теоретические сведения 2. Примеры 3. Задачи и ответы РАЗДЕЛ III. ВОЗДЕЙСТВИЕ СЛУЧАЙНЫХ ПРОЦЕССОВ НА ЭЛЕМЕНТЫ РАДИО- РАДИОТЕХНИЧЕСКИХ УСТРОЙСТВ 10. Воздействие случайных процессов на линейные системы . . 1. Теоретические сведения 2. Примеры 3. Задачи и ответы 11. Узкополосные случайные процессы 1. Теоретические сведения .... 2. Примеры 3. Задачи н ответы 12. Воздействие случайных процессов на нелинейные системы 1. Теоретические сведения 2. Примеры 3. Задачи и ответы 13. Выбросы случайных процессов 1. Теоретические сведения . . . 2. Примеры 3. Задачи и ответы 249 249 261 268 275 275 275 282 295 319 319 324 330 339 339 347 360 391 391 396 400 РАЗДЕЛ IV. ТЕОРИЯ ПОМЕХОУСТОЙЧИВОСТИ 412 14. Фильтрация сигналов 412 1. Теоретические сведения 412 - 2. Примеры 417 3. Задачи и ответы 426 15. Обнаружение и различение сигналов 444 1. Теоретические сведения 444 2. Примеры 449 3. Задачи и ответы 467 16. Оценка параметров сигнала 484 1. Теоретические сведения 484 2. Примеры 488 3. Задачи и ответы 491 РАЗДЕЛ V. ТЕОРИЯ ИНФОРМАЦИИ 495 17. Дискретные системы передачи информации 495 1. Теоретические сведения „ 495 2. Примеры 502 3. Задачи и ответы 510 18. Непрерывные системы передачи информации 515 1. Теоретические сведения 515 2. Примеры . . . ' 519 3. Задачи и ответы 527 Приложения 531 Приложение I 531 Приложение II 532 Приложение III 534 Приложение IV 535 Список литературы 536 Предметный указатель 541
Горяинов В. Т. и др. Г67 Статистическая радиотехника: Примеры и зада- задачи. Учебн. пособие для вузов / Под ред. В. И. Тихо- Тихонова. 2-е изд., перераб. и доп. — М.: Сов. радио, 1980. — 544 с, илл. В пер.: 1 р. 30 к. Книга содержат примеры и задачи по основным разделан стати- статистической радиотехники (теории вероятностей и математической стати- статистике, теории случайных процессов, помехоустойчивости и теории ин- информации). В каждой главе приведены теоретические сведения, под- подробно разобраны типовые примеры и сформулированы задачи для самостоятельного решения, снабженные ответами. 3040ЫЙ2 ББК 32.841 280 2402020°00 3040ЫЙ2 ББК 32.841 Г 046@1 )-80 2'80 2402020°00 6Ф2 ИБ № 306 Владимир Тимофеевич Горяинов, Андрей Георгиевич Журавлев, Василий Иванович Тихонов СТАТИСТИЧЕСКАЯ РАДИОТЕХНИКА. ПРИМЕРЫ И ЗАДАЧИ Редактор Е. В. Вязова Художественный редактор Н. А. Игнатьев Переплет художника Л. Рабенау Технический редактор Т. Н. Зыкина Корректор 3. Г. Галушкина Сдано в набор 7.07.79 Подписано в печать 27.12.79. T-2I646 Формат 60X90'/i6. Бумага тип. № 2. Гарнитура литер. Печать высокая. Объем усл. 34 п. л. 33,7 уч. изд. л. Тираж 27 000 экз. Зак. 1203 Цена I р. 30 к. Издательство «Советское радио>, Москва, Главпочтамт, а/я 693 Московская типография № 4 Союзполиграфпрома Государственного комитета СССР по делам издательств, полиграфии н книжной торговли. Москва, 129041, Б. Переяславская, 46