Text
                    Ill
Illi


ВЕРОЯТНОСТЕЙ m о "О S ^0 гл о? CD
Е. С. Вентцель ТЕОРИЯ ВЕРОЯТНОСТЕЙ Издание десятое, стереотипное Рекомендовано Министерством образования и науки Российской Федерации в качестве учебника для студентов высших технических учебных заведений Москва «Высшая школа» 2006
УДК 511.3 ББК 22.171 В 29 Вентцель, Е.С. В 29 Теория вероятностей: Учеб, для вузов/Е.С. Вентцель. — 10-е изд., стер. — М.: Высш, шк., 2006. — 575 с.: ил. ISBN 5-06-005688-0 Книга представляет собой один из наиболее известных учебников по теории вероятностей и предназначена для лиц, знакомых с высшей математи- кой и интересующихся техническими приложениями теории вероятностей. Она представляет также интерес для всех тех, кто применяет теорию вероятностей в своей практической деятельности. В книге уделено большое внимание различным приложениям теории вероятностей (теории вероятностных процессов, теории информации, теории массового обслуживания и др.). Для студентов высших учебных заведений. УДК 511.3 ББК 22.171 ISBN 5-06-005688-0 © Е.С. Вентцель (наследники), 2002 © ФГУП «Издательство «Высшая школа», 2006 Оригинал-макет данного издания является собственностью издательства «Вы- сшая школа», и его репродуцирование (воспроизведение) любым способом без согласия издательства запрещается.
ОГЛАВЛЕНИЕ Предисловие........................................... , * 9 Глава 1. Введение .............................................. 11 1,1. Предмет теории вероятностей............................ 11 1.2. Краткие исторические сведения.......................... 17 Глава 2. Основные понятия теории вероятностей.................... 23 2.1. Событие. Вероятность события.......................... 23 2.2. Непосредственный подсчет вероятностей................. 24 2.3. Частота» или статистическая вероятность, события....... 28 2.4. Случайная величина..................................... 32 2.5. Практически невозможные и практически достоверные со- бытия. Принцип практической уверенности..................... 34 Глава 3. Основные теоремы теории вероятностей.................... 37 3.1. Назначение основных теорем. Сумма и произведение событий 37 3.2. Теорема сложения вероятностей.......................... 40 3.3. Теорема умножения вероятностей......................... 45 3.4. Формула полной вероятности............................. 54 3.5. Теорема гипотез (формула Бейеса)....................... 56 Глава 4. Повторение опытов..................................... 59 4Л. Частная теорема о повторении опытов................... 59 4.2. Общая теорема о повторении опытов.................... 61 Глава 5. Случайные величины и их законы распределения. ... 67 5.1. Ряд распределения. Многоугольник распределения.......... 67 5.2. Функция распределения................................... 72 5.3. Вероятность попадания случайной величины на заданный участок...................................................... 78 5.4. Плотность распределения................................. 80 5.5. Числовые характеристики случайных величин. Их роль и на- значение .................................................. 84 5.6. Характеристики положения (математическое ожидание, мода, медиана)..................................................... 85 5.7. Моменты. Дисперсия. Среднее квадратическое отклонение . . 92 5.8. Закон равномерной плотности.............................103 5.9. Закон Пуассона..........................................106
4 ОГЛАВЛЕНИЕ Глава 6. Нормальный закон распределения. . . . ;.................115 6.1. Нормальный закон и его параметры......................116 6.2. Моменты нормального распределения.....................120 6.3. Вероятность попадания случайной величины, подчиненной нормальному закону, на заданный участок. Нормальная функ- ция распределения ......................................... 122 6.4. Вероятное (срединное) отклонение . . ................; 127 Г л а в а 7. Определение "Законов распределения случайных вели- чин на основе опытных данных.....................................131 7.1. Основные задачи математической статистики.............131 7.2. Простая статистическая совокупность. Статистическая функ- ция распределения...........................................133 7.3. Статистический ряд. Гистограмма.......................136 7.4. Числовые характеристики статистического распределения . . 139 7.5. Выравнивание статистических рядов.....................143 7.6. Критерии согласия.....................................149 Г лава & Системы случайных величин...............................159 8.1. Понятие о системе случайных величин...................159 8.2. Функция распределения системы двух случайных величин . .169 8.3. Плотность распределения системы двух случайных величин 163 8.4. Законы распределения отдельных величин, входящих в си- стему. Условные законы распределения........................163 8.5. Зависимые И независимые случайные величины............171 8.6. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции ..... 175 8.7. Система произвольного числа случайных величин.........182 8.8. Числовые характеристики системы нескольких случайных величин •...................................................184 Глава 9. Нормальный закон распределения для системы случай- ных величин......................................................188 9.1. Нормальный закон на плоскости.........................188 ' 9.2. Эллипсы рассеивания. Приведение нормального закона к ка- ноническому виду...................................... 193 9.3. Вероятность попадания в прямоугольник со сторонами, па- Sаллельными главным осям рассеивания.................... 196 вероятность попадания в эллипс рассеивания.............198 9.5. Вероятность попадания в область произвольной формы . . . 202 9.6. Нормальный закон в пространстве трех измерений. Общая запись нормального закона для системы произвольного числа случайных величин.......................................205 Глава 10. Числовые характеристики функций случайных величин 210 10.1. Математическое ожидание функции. Дисперсия функции . . 210 10.2. Теоремы о числовых характеристиках ..................219 10.3. Применения теорем о числовых характеристиках.........230 Глава 11. Линеаризация функций..................*...............252 11.1. Метод линеаризации функций случайных аргументов .... 252 11.2. Линеаризация функции одного случайного аргумента .... 253 11.3. Линеаризация функции нескольких случайных аргументов 255 11.4. Уточнение результатов, полученных методом линеаризации 259
ОГЛАВЛЕНИЕ 5 Глава 12. Законы распределения функций случайных аргументов 263 12.1. Закон распределения монотонной функции одного случай- ного аргумента ............................................263 12.2. Закон распределения линейной фуйкции от аргумента, под- чиненного нормальному закону............................. 266 12.3. Закон распределения немонотонной функции одного случай- ного аргумента.............................................267 12.4. Закон распределения функции двух случайных величин . . . 269 12.5. Закон распределения суммы двух случайных величин. Ком- . позиция законов распределения..............................271 12.6. Композиция нормальных законов........................275 12.7. Линейные функции от нормально распределенных аргументов 279 12.8. Композиция нормальных законов на плоскости...........280 Глава 13. Предельные теоремы теории вероятностей.................286 13.1. Закон больших чисел и центральная предельная теорема . . 286 13.2. Неравенство Чебышева............................... 287 13.3. Закон больших чисел (теорема Чебышева)...............290 13.4. Обобщенная теорема Чебышева. Теорема Маркова.........292 13.5. Следствия закона больших чисел: теоремы Бернулли и Пуас- сона ......................................................295 13.6. Массовые случайные явления и центральная предельная теорема.................................................. 297 13.7. Характеристические функции...........................299 13.8. Центральная предельная теорема для одинаково распреде- ленных слагаемых...........................................302 13.9. Формулы, выражающие центральную предельную теорему и встречающиеся при ее практическом применении...............306 Глава 14. Обработка опытов.......................................312 14.1. Особенности обработки ограниченного числа опытов. Оценки для неизвестных параметров закона распределения........312 14.2. Оценки для математического ожидания и дисперсии .... 314 14.3. Доверительный интервал. Доверительная вероятность .... 317 14.4. Точные методы построения доверительных интервалов для параметров случайной величины, распределенной по нор- мальному закону............................................324 14.5. Оценка вероятности по частоте........................330 14.6. Оценки для числовых характеристик системы случайных величин . . *..............................................339 14.7. Обработка стрельб.................................. 347 14.8. Сглаживание экспериментальных зависимостей по методу наименьших квадратов .................................. . 151 Глава 15. Основные понятия теории случайных функций .... 370 15.1. Понятие о случайной функции..........................370 15.2. Понятие о случайной функции как расширение понятия о си- стеме случайных величин. Закон распределения случайной функции................................................... 374 15.3. Характеристики случайных функций.....................377 15.4. Определение характеристик случайной функции из опыта . . 383 15.5. Методы определения характеристик преобразованных слу- чайных функций по характеристикам исходных случайных функций....................................................385
6 ОГЛАВЛЕНИЕ 15.6. Линейные и нелинейные операторы. Оператор динамической системы.................................................. 388 15.7. Линейные преобразования случайных функций............393 15.8. Сложение случайных функций 399 15.9. Комплексные случайные функции........................402 Глава 16. Канонические разложения случайных функций .... 406 16.1. Идея метода канонических разложений. Представление слу- чайной функции в виде суммы элементарных случайных функций................................................ 9 406 16.2. Каноническое разложение случайной функции.......... 410 16.3. Линейные преобразования случайных функций, заданных каноническими разложениями............................. . 411 Глава 17. Стационарные случайные функции.......................419 17.1. Понятие о стационарном случайном процессе...........419 17.2. Спектральное разложение стационарной случайной функции на конечном участке времени. Спектр дисперсий............427 17.3. Спектральное разложение стационарной случайной функции на бесконечном участке времени. Спектральная плотность стационарной случайной функции...........................431 17Л Спектральное разложение случайной функции в комплексной форме............................................... 438 17.5. Преобразование стационарной случайной функции стацио- нарной линейной системой.................................447 17.6. Применения теории стационарных случайных процессов к решению задач, связанных с анализом и синтезом динами- ческих систем........................................ 454 17.7. Эргодическое свойство стационарных случайных функций 457 17.8. Определенке характеристик эргодической стационарной слу- » чайной функции по одной реализации . •...............462 Глава 18. Основные понятия теории информации...................468 13.1. Предмет и задачи теории информации..............' . . 468 18.2. Энтропия как мера степени неопределенности состояния физической системы................................... . . 469 18.3. Энтропия сложной системы. Теорема сложения энтропий . . 475 18.4. Условная энтропия. Объединение зависимых систем .... 477 18.5. Энтропия и информация...............................481 18.6. Частная информация о системе, содержащаяся в сообщении о событии. Частная информация о событии, содержащаяся в сообщении о другом событии.............................489 18.7. Энтропия и информация для систем с непрерывным множест- ством состояний........................................ 493 18.8. Задачи кодирования сообщений. Код Шеннона — Фэно . . . 502 18.9. Передача информации с искажениями. Пропускная способ- ность канала с помехами •............................... 509 Глава 19. Элементы теории массового обслуживания............ . 515 19.1 . Предмет теории массового обслуживания........ . 515 19.2 . Случайный процесс со счетным множеством состояний . . 517 19.3 . Поток событий. Простейший поток и его свойства .... 520 19.4 . Нестационарный пуассоновский поток...............527
ОГЛАВЛЕНИЕ 7 19. 5. Поток с ограниченным последействием (поток Пальма) • • 19. 6. Время обслуживания................................. 19. 7. Марковский случайный процесс....................... 19. 8. Система массового обслуживания с отказами. Уравнения Эрланга . . .............................................. 19. 9. Установившийся режим обслуживания. Формулы Эрланга . 19. 10. Система массового обслуживания с ожиданием . .... 19. 11. Система смешанного типа с ограничением по длине очереди Приложение. Таблицы Литература.......... . . /................................ 573 Предметный указатель......... . . ..............• • ........574
ГРЕЧЕСКИЙ АЛФАВИТ А, а — альфа г, у — гамма Е, е — эпсилон н, 1 — эта I, i — йота л, — лямбда N, v — ню П, л — пи X, о — сигма Т, v — ипсилон X, х — хи Q, а> — омега В, /? — бета Д, <5 — дельта Z, С —дзета ®, о, v — тета К, к — каппа М, ц — мю Н, £ — кси Р, Р — ро Т, т — тау Ф, ф — фи Т, ф — пси
ПРЕДИСЛОВИЕ Настоящая книга написана на базе лекций по теории вероят- ностей, читанных автором в течение ряда лет слушателям Воен- но-воздушной инженерной академии им. Н. Е. Жуковского, а так- же учебника автора по тому же предмету. . Учебник рассчитан, в основном, на инженера, имеющего ма- тематическую подготовку в объеме обычного курса высших тех- нических учебных заведений. При составлении книги автор ста- вил задачу изложить предмет наиболее просто и наглядно, не связывая себя рамками полной математической строгости. В свя- зи с этим отдельные положения приводятся без доказательства (раздел о доверительных границах и доверительных вероятно- стях; теорема А. Н. Колмогорова, относящаяся к критерию согласия, и некоторые другие); некоторые положения доказыва- ются не вполне строго (теорема умножения законов распределе- ния; правила преобразования математического ожидания и кор- реляционной функции при интегрировании и дифференцирований случайной функции и др.). Применяемый математический аппарат, в основном, не выхо- дит за рамки курса высшей математики, излагаемого в высших технических учебных заведениях; там, где автору приходится использовать менее общеизвестные понятия (например, понятие линейного оператора, матрицы, квадратичной формы и т. д.), эти понятия поясняются. Книга снабжена большим количеством примеров, в ряде слу- чаев расчетного характера, в которых применение излагаемых методов иллюстрируется на конкретном практическом материале
и доводится до численного результата. Несмотря на несколько специфический подбор примеров, иллюстративный материал, по- мещенный в книге, понятен и инженерам, работающим в разных областях техники, и всем, кто использует методы теории вероят- ностей в своей работе. Автор выражает глубокую благодарность профессору Е. Б. Дынкину и профессору В. С. Пугачеву за ряд ценных указаний. Е. Вентцель
ГЛАВА 1 ВВЕДЕНИЕ 1.L Предмет теории вероятностей Теория вероятностей есть математическая наука, изучающая законо- мерности в случайных явлениях. Условимся, чтб мы будем понимать под «случайным явлением». При научном исследовании различных физических и технических задач часто приходится встречаться с особого типа явлениями, кото- рые принято называть случайными. Случайное явление — это такое явление, которое при неоднократном воспроизведении одного и того же опыта протекает каждый раз несколько по-инойу. Приведем примеры случайных явлений. 1. Производится стрельба из орудия, установленного под задан- ным углом к горизонту (рис. 1.1.1). Пользуясь методами внешней баллистики (науки о движении сна- ряда в воздухе), можно найти теоретическую траекторию снаряда (кривая К на рис. 1.1.1). Эта траектория вполне определяется условиями стрельбы: начальной ско- ростью снаряда v0, углом f бросания 60 и баллисти- " ческим коэффициентом ' Рис. 1.1.1, снаряда с. Фактическая траектория каждого отдельного снаряда неизбежно несколько откло- няется от теоретической за счет совокупного влияния многих факторов. Среди этих факторов можно, например, назвать: ошибки изготовления снаряда, отклонение веса заряда от номинала, неоднородность струк- туры заряда, ошибки установки ствола в заданное положение, метео- рологические условия и т. д. Если произвести несколько выстрелов при неизменных основных условиях (vQ, 0о, с), мы получим не одну теоретическую траекторию, а целый пучок или «сноп» траекторий, образующий так называемое «рассеивание снарядов». 2. Одно и то же тело несколько раз взвешивается на аналити- ческих весах; результаты повторных взвешиваний несколько отли- чаются друг от друга. Эти различия обусловлены влиянием многих
12 ВВЕДЕНИЕ [ГЛ. Т второстепенных факторов, сопровождающих операцию взвешивания, таких как положение тела на чашке весов, случайные вибрации аппа- ратуры, ошибки отсчета показаний прибора и т. д. 3. Самолет совершает полет на заданной высоте; теоретически он летит горизонтально, равномерно и прямолинейно. Фактически полет сопровождается отклонениями центра массы самолета от тео- ретической траектории и колебаниями самолета около центра массы. Эти отклонения и колебания являются случайными и связаны с турбу- лентностью атмосферы; от раза к разу они не повторяются. 4. Производится ряд подрывов осколочного снаряда в определен- ном положении относительно цели. Результаты отдельных подрывов несколько отличаются друг от друга: меняются общее число осколков, взаимное расположение их траекторий, вес, форма и скорость каждого отдельного осколка. Эти изменения являются случайными и связаны с влиянием таких факторов, как неоднородность металла корпуса снаряда, неоднородность взрывчатого вещества, непостоянство ско- рости детонации и т. п. В связи с этим различные подрывы, осуществленные, казалось бы, в одинаковых условиях, могут при- водить к различным результатам: в одних подрывах цель будет поражена осколками, в других — нет. Все приведенные примеры рассмотрены здесь под одним и тем же углом зрения: подчеркнуты случайные вариации, неодинаковые резуль- таты ряда опытов, основные условия которых остаются неизменными. Эти вариации всегда связаны с наличием каких-то второстепенных факторов, влияющих на исход опыта, но не заданных в числе его основных условий. Основные условия опыта, определяющие в общих и грубых чертах его протекание, сохраняются неизменными; второ- степенные— меняются от опыта к опыту и вносят случайные разли- чия в их результаты. Совершенно очевидно, что в природе нет ни одного физического явления, в котором не присутствовали бы в той или иной мере элементы случайности. Как бы точно и подробно ни были фиксиро- ваны условия опыта, невозможно достигнуть того, чтобы при повто- рении опыта результаты полностью и в точности совпадали. Случайные отклонения неизбежно сопутствуют любому законо- мерному явлению. Тем не менее в ряде практических задач этими случайными элементами можно пренебречь, рассматривая вместо реального явления его упрощенную схему, «модель», и предполагая, что в данных условиях опыта явление протекает вполне определен- ным образом. При этом из бесчисленного множества факторов, влияющих на данное явление, выделяются самые главные, основные, решающие; влиянием остальных, второстепенных факторов просто пренебрегают. Такая схема изучения явлений постоянно применяется в физике, механике, технике. При пользовании этой схемой для решения любой задачи прежде всего выделяется основной круг учи-
|Л) ПРЕДМЕТ ТЕОРИИ ВЕРОЯТНОСТЕЙ 13 тываемых условий и выясняется, на какие параметры задачи они влияют; затем применяется тот или иной математический аппарат (например, составляются и интегрируются дифференциальные уравне- ния, описывающие явление); таким образом выявляется основная закономерность, свойственная данному явлению и дающая возможность предсказать результат опыта по его заданным условиям. По мере развития науки число учитываемых факторов становится все боль- ше; явление исследуется подробнее; научный прогноз становится точнее. Однако для решения ряда вопросов описанная схема — классиче- ская схема так называемых «точных наук» — оказывается плохо при- способленной. Существуют такие задачи, где интересующий нас исход опыта зависит от столь большого числа факторов, что практически невозможно зарегистрировать и учесть все эти факторы. Это — задачи, в которых многочисленные второстепенные, тесно переплетающиеся между собой случайные факторы играют заметную роль, а вместе с тем число их так велико и влияние столь сложно, что применение классических методов ис- следования себя не оправ- , дывает. Рассмотрим пример. \\W\ Производится стрельба по s' \д0 некоторой цели Ц из —-------------1-----------------;----х // Х орудия, установленного 4 под углом 0о к гори- Рис. 1.1.2. зонту (рис. 1.1.2). Траек-* тории снарядов, как было указано выше, не совпадают между собой; в результате точки падения снарядов на земле рассеиваются. Если размеры цели велики по сравнению с областью рассеивания, то этим рассеиванием, очевидно, можно пренебречь: при правильной установке орудия любой выпушенный снаряд попадает в цель. Если же (как обычно и бывает на практике) область рассеивания снарядов превышает размеры цели, то некоторые из снарядов в связи с влия- нием случайных факторов в цель не попадут. Возникает ряд вопро- сов, например: какой процент выпущенных снарядов в среднем попадает в цель? Сколько нужно потратить снарядов для того, чтобы доста- точно надежно поразить цель? Какие следует принять меры для уменьшения расхода снарядов? Чтобы ответить на подобные вопросы, обычная схема точных наук оказывается недостаточной. Эти вопросы органически связаны со случайной природой явления; для того чтобы на них ответить, очевидно, нельзя просто пренебречь случайностью,—надо изучить случайное явление рассеивания снарядов с точки зрения закономер- ностей, присущих ему именно как случайному явлению. Надо иссле- довать закон, по которому распределяются точки падения снарядов;
ВВЕДЕНИЕ (ГЛ. I 14 нужно выяснить случайные причины, вызывающие рассеивание, срав- нить их между собой по степени важности и т. д. Рассмотрим другой пример. Некоторое техническое устройство, например система автоматического управления, решает определенную задачу в условиях, когда на систему непрерывно воздействуют слу- чайные помехи. Наличие помех приводит к тому, что система решает задачу с некоторой ошибкой, в ряде случаев выходящей за пределы допустимой. Возникают вопросы: как' часто будут появляться такие ошибки? Какие следует принять меры для того, чтобы практически исключить их возможность? Чтобы ответить на такие вопросы, необходимо исследовать при- роду и структуру случайных возмущений, воздействующих на систему, изучить реакцию системы на такие возмущения, выяснить влияние конструктивных параметров системы на вид этой реакции. Все подобные задачи, число которых в физике и технике чрезвы- чайно велико, требуют изучения не только основных, главных зако- номерностей, определяющих явление в общих чертах, но и анализа случайных возмущений и искажений, связанных с наличием второ- степенных факторов и придающих исходу опыта при заданных усло- виях элемент неопределенности. Какие же существуют пути. и методы для исследования случай- ных явлений? С чисто теоретической точки зрения те факторы, которые мы условно назвали «случайными», в принципе ничем не отличаются от других, которые мы выделили в качестве «основных». Теоретически можно неограниченно повышать точность решения каждой задачи, учитывая все новые и новые группы факторов: от самых существен- ных до самых ничтожных. Однако практически такая попытка оди- наково подробно и тщательно проанализировать влияние решительно всех факторов, от которых зависит явление, привела бы только к тому, что решение задачи, в силу непомерной громоздкости и сложности, оказалось бы практически неосуществимым и к тому же не имело бы никакой познавательной ценности. Например, теоретически можно было бы поставить и решить задачу об определении траектории вполне определенного снаряда, с учетом всех конкретных погрешностей его изготовления, точного веса и конкретной структуры данного, вполне определенного поро- хового заряда при точно определенных метеорологических данных (температура, давление, влажность, ветер) в каждой точке траектории. Такое решение не только было бы необозримо сложным, но и не имело бы никакой практической ценности, так как относилось бы только к данному конкретному снаряду и заряду в данных конкрет- ных условиях, которые практически больше не повторятся. Очевидно, должна существовать принципиальная разница в мето- дах учета основных, решающих факторов, определяющих в главных
ТЛ1 ПРЕДМЕТ ТЕОРИИ ВЕРОЯТНОСТЕЙ 15 чертах течение явления, и вторичных, второстепенных факторов, влияющих на течение явления в качестве «погрешностей» или «воз- мущений». Элемент неопределенности, сложности, многопричинности, присущий случайным явлениям, требует создания специальных мето- дов для изучения этих явлений. Такие методы и разрабатываются в теории вероятностей. Ее предметом являются специфические закономерности, наблюдаемые в случайных явлениях. Практика показывает, что, наблюдая в совокупности массы одно- родных случайных явлений, мы обычно обнаруживаем в них вполне определенные закономерности, своего рода устойчивости, свой- ственные именно массовым случайным явлениям. Например, если много раз подряд бросать монету, частота по- явления герба (отношение числа появившихся гербов к общему числу бросаний) постепенно стабилизируется, приближаясь к вполне опре- деленному числу, именно к Такое же свойство «устойчивости частот» обнаруживается и при многократном повторении любого дру- гого опыта, исход которого представляется заранее неопределенным, случайным. Так, при увеличении числа выстрелов частота попадания в некоторую цель тоже стабилизируется, приближаясь к некоторому постоянному числу. Рассмотрим другой пример. В сосуде заключен какой-то объем газа, состоящий из весьма большого числа молекул. Каждая моле- кула за секунду испытывает множество столкновений с другими молекулами, многократно меняет скорость и направление движения; траектория каждой отдельной молекулы случайна. Известно, что давление газа на стенку сосуда обусловлено совокупностью ударов молекул об эту стенку. Казалось бы, если траектория каждой от- дельной молекулы случайна, то и давление на стенку сосуда должно было бы изменяться случайным и неконтролируемым образом; однако это не так. Если число молекул достаточно велико, то давление газа практически не зависит от траекторий отдельных молекул и подчиняется вполне определенной и очень простой закономерности. Случайные особенности, свойственные движению каждой отдельной молекулы, в массе взаимно компенсируются; в результате, несмотря на сложность и запутанность отдельного случайного явления, мы получаем весьма простую закономерность, справедливую для массы случайных явлений. Отметим, что именно массовость случайных явлений обеспечивает выполнение этой закономерности; при ограни- ченном числе молекул начинают сказываться случайные отклонения от закономерности, так называемые флуктуации. Рассмотрим еще один пример. По некоторой мишени произво- дится один за другим ряд выстрелов; наблюдается распределение точек попадания на мишени. При ограниченном числе выстрелов точки
16 ВВЕДЕНИЕ (ГЛ. 1 попадания распределяются по мишени в полном беспорядке, без какой- либо видимой закономерности. По мере увеличения числа выстрелов в расположении точек попадания начинает наблюдаться некоторая закономерность; эта закономерность проявляется тем отчетливее, чем большее количеств выстрелов произведено. Расположение точек попадания оказывается приблизительно симметричным относительно некоторой центральной-точки: в центральной области группы пробоин они расположены гуще, чем по краям; при этом густота пробоин убывает по вполне определенному закону (так называемый «нормаль- ный закон» или «закон Гаусса», которому будет уделено большое внимание в данном курсе). Подобные специфические, так называемые «статистические», за- кономерности наблюдаются всегда, когда мы имеем дело с массой однородных случайных явлений. Закономерности, проявляющиеся в этой массе, оказываются практически независимыми от индиви- дуальных особенностей отдельных случайных явлений, входящих в массу. Эти отдельные особенности в массе как бы взаимно пога- шаются, нивелируются, и средний результат массы случайных явле- ний оказывается практически уже не случайным. Именно эта много- кратно подтвержденная опытом устойчивость массовых случайных явлений и служит базой для применения вероятностных (статистиче- ских) методов исследования. Методы теории вероятностей по природе приспособлены только для исследования массовых случайных явлений; они не дают возможности предсказать исход отдельного случайного явления, но дают возможность предсказать средний суммарный ре- зультат массы однородных случайных явлений, предсказать средний исход массы аналогичных опытов, конкретный исход каждого из ко- торых остается неопределенным, случайным. Чем большее количество однородных случайных явлений участ- вует в задаче, тем определеннее и отчетливее проявляются прису- щие им специфические законы, тем с большей уверенностью и точ- ностью можно осуществлять научный прогноз. Во всех случаях, когда применяются вероятностные методы исследования, цель их в том, чтобы, минуя слишком сложное (и зачастую практически невозможное) изучение отдельного явления, обусловленного слишком большим количеством факторов, обратиться непосредственно к законам, управляющим массами случайных явле- ний. Изучение этих’ законов позволяет не только осуществлять науч- ный прогноз в своеобразной области случайных явлений, но в ряде случаев помогает целенаправленно влиять на ход случайных явлений, контролировать их, ограничивать сферу действия случайности, су- жать ее влияние на практику. Вероятностный, или статистический, метод в науке не про- тивопоставляет себя классическому, обычному методу точных наук, а является его дополнением, позволяющим глубже анали-
1.2] КРАТКИЕ ИСТОРИЧЕСКИЕ СВЕДЕНИЯ 17 зировать явление с учетом присущих ему элементов случай- ности. Характерным для современного этапа развития естественных и технических наук является весьма широкое и плодотворное приме- нение статистических методов во всех областях знания. Это вполне естественно, так как при углубленном изучении любого круга явле- ний неизбежно наступает этап, когда требуется не только выявление основных закономерностей, но и анализ возможных отклонений от них. В одних науках, в силу специфики предмета и исторических условий, внедрение статистических методов наблюдается раньше, в других — позже. В настоящее время нет почти ни одной есте- ственной науки, в которой так или иначе не применялись бы ве- роятностные методы. Целые разделы современной физики (в част- ности, ядерная физика) базируются на методах теории вероятностей. Все шире применяются вероятностные методы в современной электро- технике и радиотехнике, метеорологии и астрономии, теории авто- матического регулирования и машинной математике. Обширное поле применения находит теория вероятностей в раз- нообразных областях военной техники: теория стрельбы и бомбоме- тания, теория боеприпасов, теория прицелов и приборов управления огнем, аэронавигация, тактика и множество других разделов военной науки широко пользуются методами теории вероятностей и ее мате- матическим аппаратом. Математические законы теории вероятностей — отражение реаль- ных статистических законов, объективно существующих в массовых случайных явлениях природы, К изучению этих явлений теория ве- роятностей применяет математический метод и по своему методу является одним из разделов математики, столь же логически точным и строгим, как другие математические науки. 1.2. Краткие исторические сведения Теория вероятностей, подобно другим математическим наукам, развилась из потребностей практики. Начало систематического исследования задач, относящихся к мас- совым случайным явлениям, и появление соответствующего математи- ческого аппарата относятся к XVII веку. В начале XVII века знаме- нитый физик Галилей уже пытался подвергнуть научному исследованию ошибки физических измерений, рассматривая их как случайные и оценивая их вероятности. К этому же времени относятся первые попытки создания общей теории страхования, основанной на анализе закономерностей в таких массовых случайных явлениях, как заболе- ваемость, смертность, статистика несчастных случаев и т. д. Необ- ходимость создания математического аппарата, специально приспособ- ленного для анализа слу чайных явлений, вытекала и из потребностей
18 ВВЕДЕНИЕ [ГЛ. t обработки и обобщения обширного статистического материала во всех областях науки. Однако теория вероятностей как математическая наука сформи- ровалась, в основном, не на материале указанных выше практических задач: эти задачи слишком сложны; в них законы, управляющие слу- чайными явлениями, проступают недостаточно отчетливо и затушеваны многими осложняющими факторами. Необходимо было сначала изу- чить закономерности случайных явлений на более простом материале. Таким материалом исторически оказались так называемые «азартные игры». Эти игры с незапамятных времен создавались рядом поколе- ний именно так, чтобы в них исход опыта был независим от под- дающихся наблюдению условий опыта, был чисто случайным. Самое слово «азарт» (фр. «1е hasard») означает «случай». Схемы азартных игр дают исключительные по простоте и прозрачности модели слу- чайных явлений, позволяющие в наиболее отчетливой форме наблю- дать и изучать управляющие ими специфические законы; а возмож- ность неограниченно повторять один и тот же опыт обеспечивает экспериментальную проверку этих законов в условиях действитель- ной массовости явлений. Вплоть до настоящего времени примеры из области азартных игр и аналогичные им задачи на «схему урн» ши- роко употребляются при изучении теории вероятностей как упро- щенные модели случайных явлений, иллюстрирующие в наиболее простом и наглядном виде основные законы и правила теории ве- роятностей. Возникновение теории вероятностей в современном смысле слова относится к середине XVII века и связано с исследованиями Паскаля (1623—1662), Ферма (1601—1665) и Гюйгенса. (1629—1695) в об- ласти теории азартных игр. В этих работах постепенно сформирова- лись такие важные понятия, как вероятность и математическое ожи- дание; были установлены их основные свойства и приемы их вычи- сления. Непосредственное практическое применение вероятностные методы нашли прежде всего в задачах страхования. Уже с конца XVII века страхование стало производиться на научной математи- ческой основе. С тех пор теория вероятностей находит все более широкое применение в различных областях. Крупный шаг вперед в развитии теории вероятностей связан с работами Якова Бернулли (1654—1705). Ему принадлежит первое доказательство одного из важнейших положений теории вероят- ностей— так называемого закона больших чисел. Еще до Якова Бернулли многие отмечали как эмпирический факт ту особенность случайных явлений, которую можно назвать «свой- ством устойчивости частот при большом числе опытов». Было неод- нократно отмечено, что при большом числе опытов, исход каждого из которых является случайным, относительная частота появления каждого данного исхода имеет тенденцию стабилизироваться, при-
1.2] КРАТКИЕ ИСТОРИЧЕСКИЕ СВЕДЕНИЯ 19 ближаясь к некоторому определенному числу — вероятности этого исхода. Например, если много раз бросать монету, относительная частота появления герба приближается к при многократном бро- сании игральной кости частота появления грани с пятью очками при- ближается к Ve и т- Яков Бернулли впервые дал теоретическое обоснование этому эмпирическому факту. Теорема Якова Бернулли — простейшая форма закона больших чисел — устанавливает связь между вероятностью события и частотой его появления; при доста- точно большом числе опытов можно с практической достоверностью ожидать сколь угодно близкого совпадения частоты с вероятностью. Другой.* важный этап в развитии теории вероятностей связан с именем Моавра (.1667—1754). Этот ученый впервые ввел в рас- смотрение и для простейшего случая обосновал своеобразный закон, очень часто наблюдаемый в случайных явлениях: так называемый нормальный закон (иначе — закон Гаусса). Нормальный закон, как мы увидим далее, играет исключительно важную роль в случайных явлениях. Теоремы, обосновывающие этот закон для тех или иных условий, носят в теории вероятностей общее название «центральной предельной теоремы». Выдающаяся роль в развитии теории вероятностей принадлежит знаменитому математику Лапласу (1749—1827). Он впервые дал стройное и систематическое изложение основ теории вероятностей, дал доказательство одной из форм центральной предельной теоремы (теоремы Моавра — Лапласа) и развил ряд замечательных приложе- ний теории вероятностей к вопросам практики, в частности к ана- лизу ошибок наблюдений и измерений. Значительный шаг вперед в развитии теории вероятностей связан с именем Гаусса (1777—1855), который дал еще более общее обо- снование нормальному закону и разработал метод обработки экспе- риментальных данных, известный под названием «метода наименьших квадратов». Следует также отметить ^работы Пуассона (1781—1840), доказавшего более общую, чем у Якова Бернулли, форму закона больших чисел, а также впервые применившего теорию вероятностей к задачам стрельбы. С именем Пуассона связан один из законов распределения, играющий большую роль в теории вероятностей и ее приложениях. Для всего XVIII и начала XIX века характерны бурное развитие теории вероятностей и повсеместное увлечение ею. Теория вероят- ностей становится «модной» наукой. Ее начинают применять не только там, где это применение правомерно, но и там, где оно ничем не оправдано. Для этого периода характерны многочисленные попытки применить теорию вероятностей к изучению общественных явлений, к так называемым «моральным» или «нравственным» наукам. Во множестве появились работы, посвященные вопросам судопроизвод- ства, истории, политики, даже богословия, в которых применялся
20 ВВЕДЕНИЕ [ГЛ. I аппарат теории вероятностей. Для всех этих псевдонаучных исследо- ваний характерен чрезвычайно упрощенный, механистический подход к рассматриваемым в них общественным явлениям. В основу рас- суждения полагаются некоторые произвольно заданные вероятности (например, при рассмотрении вопросов судопроизводства склонность каждого человека к правде или лжи оценивается некоторой постоян- ной, одинаковой для всех людей вероятностью), и далее обществен- ная проблема решается как простая арифметическая задача. Естест- венно, что все подобные попытки были обречены на неудачу и не могли сыграть положительной роли в развитии науки. Напротив, их косвенным результатом оказалось то, что примерно в 20-х — 30-х годах XIX века в Западной Европе повсеместное увлечение теорией вероятностей сменилось разочарованием и скептицизмом. На теорию вероятностей стали смотреть как на науку сомнительную, второсорт- ную, род математического развлечения, вряд ли достойный серьез- ного изучения. Замечательно, что именно в это время в России создается та знаменитая Петербургская математическая школа, трудами которой теория вероятностей была поставлена на прочную логическую и ма- тематическую основу и сделана надежным, точным и эффективным методом познания. Со времени появления этой школы развитие тео- рии вероятностей уже теснейшим образом связано с работами рус- ских, а в дальнейшем — советских ученых. Среди ученых Петербургской математической школы следует назвать В. Я. Буняковского (1804—1889) — автора первого курса теории вероятностей на русском языке, создателя современной рус- ской терминологии в теории вероятностей, автора оригинальных ис- следований в области статистики и демографии. Учеником В. Я. Буняковского был великий русский математик П. Л. Чебышев (1821 —1894). Среди обширных и разнообразных математических трудов П. Л. Чебышева заметное место занимают его труды по теории вероятностей. П. Л. Чебышеву принадлежит дальнейшее расширение и обобщение закона больших чисел. Кроме того, П. Л. Чебышев ввел в теорию вероятностей весьма мощный и плодотворный метод моментов. Учеником П. Л. Чебышева был А. А. Марков (1856—1922), также обогативший теорию вероятностей открытиями и методами большой важности. А. А. Марков существенно расширил область применения закона больших чисел и центральной предельной теоремы, распространив их не только на независимые, но и на зависимые опыты. Важнейшей заслугой А. А. Маркова явилось то, что он за- ложил основы совершенно новой ветви теории вероятностей—теории случайных, или «стохастических», процессов. Развитие этой теории составляет основное содержание новейшей, современной теории ве- роятностей.
1.2] КРАТКИЕ ИСТОРИЧЕСКИЕ СВЕДЕНИЯ 21 Учеником П. Л. Чебышева был и А. М. Ляпунов (1857— 1918), с именем которого связано первое доказательство центральной пре- дельной теоремы при чрезвычайно общих условиях. Для доказатель- ства своей теоремы А. М. Ляпунов разработал специальный метод характеристических функций, широко применяемый ' в современной теории вероятностей. Характерной особенностью работ Петербургской математической и.колы была исключительная четкость постановки задач, полная ма- тематическая строгость применяемых методов и наряду с этим тесная связь теории с непосредственными требованиями практики. Трудами ученых Петербургской математической школы теория вероятностей была выведена с задворков науки и поставлена как полноправный член в ряд точных математических наук. Условия применения ее ме- тодов были строго определены, а самые методы доведены до высокой степени совершенства. Современное развитие теории вероятностей характерно всеобщим подъемом интереса к ней и резким расширением круга се практи- ческих применений. За последние десятилетия теория вероятностей превратилась в одну из наиболее быстро развивающихся наук, тес- нейшим образом связанную с потребностями практики и техники. Советская школа теории вероятностей, унаследовав традиции Петер- бургской математической школы, занимает в мировой науке веду- щее место. Здесь мы назовем только некоторых крупнейших советских уче- ных, труды которых сыграли решающую роль в развитии современ- ной теории вероятностей и ее практических приложений. С. Н. Бернштейн разработал первую законченную аксиоматику теории вероятностей, а также существенно расширил область при- менения предельных теорем. А. Я. Хинчин (1894—1959) известен своими исследованиями в области дальнейшего обобщения и усиления закона больших чисел, но главным образом своими исследованиями в области так называемых стационарных случайных процессов. Ряд важнейших основополагающих работ в различных областях теории вероятностей и математической статистики принадлежит А. Н. Колмогорову. Он дал наиболее совершенное аксиоматическое построение теории вероятностей, связав ее с одним из важнейших разделов современной математики — метрической теорией функций. Особое значение имеют работы А. Н. Колмогорова в области теории случайных функций (стохастических процессов), которые в настоящее время являются основой всех исследований в данной области. Работы А. Н. Колмогорова, относящиеся к оценке эффективности легли в основу целого нового научного направления в теории стрельбы, пе- реросшего затем в более широкую науку об эффективности боевых действий.
22 ВВЕДЕНИЕ [ГЛ. 1 В. И. Романовский (1879— 1954) и Н. В. Смирнов известны своими работами в области математической статистики, Е. Е. Слуц- кий (1880 — 1948) — в теории случайных процессов, Б. В. Гнеденко — в области теории массового обслуживания, Е. Б. Дынкин— в об- ласти марковских случайных процессов, В. С. Пугачев — в области случайных процессов в применении к задачам автоматического упра- вления. Развитие зарубежной теории вероятностей в настоящее время также идет усиленными темпами в связи с настоятельными требова- ниями практики. Преимущественным вниманием пользуются, как и у нас, вопросы, относящиеся к случайным процессам. Значительные работы в этой области принадлежат, например, Н. Винеру, В. Феллеру, Д. Дубу. Важные работы по теории вероятностей и математической статистике принадлежат Р. Фишеру, Д. Нейману и Г. Крамеру. За последние годы мы стали свидетелями рождения новых и свое- образных методов прикладной теории вероятностей, появление кото- рых связано со спецификой исследуемых технических проблем. Речь идет, в частности, о таких дисциплинах, как «теория информации» и «теория массового обслуживания». Возникшие из непосредственных потребностей практики, эти разделы теории вероятностей приобрета- ют общее теоретическое значение, а круг их приложений постоянно увеличивается.
Г ЛАВ A 2 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ 2.1. Событие. Вероятность события Каждая наука, развивающая общую теорию какого-либо круга явлений, содержит ряд основных понятий, на которых она базируется. Таковы, например, в геометрии понятия точки, прямой, линии; в ме- ханике— понятия силы, массы, скорости, ускорения и т. д. Есте- ственно, что не все основные понятия могут быть строго определены, так как определить понятие — это значит свести его к другим, более известным. Очевидно, процесс определения одних понятий через другие должен где-то заканчиваться, дойдя до самых первичных понятий, к которым сводятся все остальные и которые сами строго не опре- деляются, а только поясняются. Такие основные понятия существуют и в теории вероятностей. В качестве первого из них введем понятие события. Под «событием» в теории вероятностей понимается всякий факт, который в результате опыта может произойти или не произойти. Приведем несколько примеров событий: А — появление герба при бросании монеты; В — появление трех гербов при трехкратном бросании монеты; С — попадание в цель при выстреле; D—появление туза при вынимании карты из колоды; Е— обнаружение объекта при одном цикле обзора радиолока- ционной станции; F— обрыв нити в течение часа работы ткацкого станка. Рассматривая вышеперечисленные события, мы видим, что каждое из них обладает какой-то степенью возможности: одни — большей, другие — меньшей, причем для некоторых из этих событий мы сразу же можем решить, какое из них более, а какое менее возможно. Например; сразу видно, что событие А более возможно, чем В и D. Относи- тельно событий С, Е и F аналогичных выводов сразу сделать нельзя; для этого следовало бы несколько уточнить условия опыта. Так или иначе ясно, что каждое из таких событий обладает той или иной степенью возможности. Чтобы количественно сравнивать между собой * события по степени их возможности, очевидно, нужно с каждым
24 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ 2 событием связать определенное число, которое тем больше, чем более возможно событие. Такое число мы назовем вероятностью события. Таким образом, мы ввели в рассмотрение второе основное по- нятие теории вероятностей — понятие вероятности события. Вероят- ность события есть численная мера степени объективной возможности этого события. Заметим, что уже при самом введении понятия вероятности со- бытия мы связываем с этим понятием определенный практический смысл, а именно: на основании опыта мы считаем более вероятными те события, которые происходят чаще; менее вероятными — те события, которые происходят реже; мало вероятными — те, которые почти никогда не происходят. Таким образом, понятие вероятности события в самой своей основе связано с опытным, практическим понятием частоты события. Сравнивая между собой различные события по степени их воз- можности, мы должны установить какую-то единицу измерения. В качестве такой единицы измерения естественно принять вероятность достоверного события, т. е. такого события, которое в результате опыта непременно должно произойти. Пример достоверного события — выпадение не более 6 очков при бросании одной игральной кости. Если приписать достоверному событию вероятность, равную еди- нице, то все другие события — возможные, но не достоверные — будут характеризоваться вероятностями, меньшими единицы, соста- вляющими какую-то долю единицы. Противоположностью по отношению к достоверному событию является невозможное событие, т. е. такое событие, которое в данном опыте не может произойти. Пример невозможного события — появление 12 очков при бросании одной игральной кости. Естест- венно приписать невозможному событию вероятность, равную нулю. Таким образом, установлены единица измерения вероятностей — вероятность достоверного события — и диапазон изменения вероятно- стей любых событий — числа от 0 до 1. 2.2. Непосредственный подсчет вероятностей Существует целый класс опытов, для которых вероятности их возможных исходов легко оценить непосредственно из условий самого опыта. Для этого нужно, чтобы различные исходы опыта обладали симметрией и в силу этого были объективно одинаково возможными. Рассмотрим, например, опыт, состоящий в бросании игральной кости, т. е. симметричного кубика, на гранях которого нанесено раз- личное число очков: от 1 до 6. В силу симметрии кубика есть основания считать все шесть воз- можных исходов опыта одинаково возможными. Именно это дает нам
2.21 НЕПОСРЕДСТВЕННЫЙ ПОДСЧЕТ ВЕРОЯТНОСТЕЙ 25 право предполагать, что при многократном бросании кости все шесть граней будут выпадать примерно одинаково часто. Это предположе- ние для правильно выполненной кости действительно оправдывается на опыте; при многократном бросании кости каждая ее грань по- является примерно в одной шестой доле всех случаев бросания, причем отклонение этой доли от ~ тем меньше, чем большее число опытов произведено. Имея в виду, что вероятность достоверного события принята равной единице, естественно приписать выпадению каждой отдельной грани вероятность, равную Это число харак- теризует некоторые объективные свойства данного случайного явле- ния, а именно свойство симметрии шести возможных исходов опыта. Для всякого опыта, в котором возможные'' исходы, симметричны и одинаково возможны, можно применить аналогичный прием, который называется непосредственным подсчетом вероятностей. Симметричность возможных исходов опыта обычно наблюдается только в искусственно организованных опытах, типа азартных игр. Так как первоначальное развитие теория вероятностей получила именно на схемах азартных игр, то прием непосредственного под- счета вероятностей, исторически возникший вместе с возникновением математической теории случайных явлений, долгое время считался основным и был положен в основу так называемой «классической» теории вероятностей. При этом опыты, не обладающие симметрией возможных исходов, искусственно сводились к «классической» схеме. Несмотря на ограниченную сферу практических применений этой схемы, она все же представляет известный интерес, так как именно на опытах, обладающих симметрией возможных исходов, и на собы- тиях, связанных с такими опытами, легче всего познакомиться с основ- ными свойствами вероятностей. Такого рода событиями, допускаю- щими непосредственный подсчет вероятностей, мы и займемся в первую очередь. Предварительно введем некоторые вспомогательные понятия. 1. Полная группа событий. Говорят, что несколько событий в данном опыте образуют пол- ную группу событий, если в результате опыта непременно должно появиться хотя бы одно из них. Примеры событий, образующих полную группу: 1) выпадение герба и выпадение цифры при бросании монеты; 2) попадание и промах при выстреле; 3) появление 1,2, 3, 4, 5, 6 очков при бросании игральной кости; 4) появление белого шара и появление черного шара при выни- мании одного шара из урны, в которой 2 белых и 3 черных шара; 5) ни одной опечатки, одна, две, три и более трех опечаток при проверке страницы напечатанного текста;
26 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 2 6) хотя бы одно попадание и хотя бы один промах при двух выстрелах. 2. Несовместные события. Несколько событий называются несовместными в данном опыте, если никакие два из них не могут появиться вместе. Примеры несовместных событий: 1) выпадение герба и выпадение цифры при бросании монеты; 2) попадание и промах при одном выстреле; 3) появление 1, 3, 4 очков при одном бросании игральной кости; 4) ровно один отказ, ровно два отказа, ровно три отказа тех- нического устройства за десять часов работы. 3. Равновозможные события. Несколько событий в данном опыте называются равновозмож- ными, если по условиям симметрии есть основание считать, что ни одно из этих событий не является объективно более возможным, чем другое. Примеры равновозможных событий: 1) выпадение герба и выпадение цифры при бросании монеты; 2) появление 1, 3, 4, 5 очков при бросании игральной кости; 3) появление карты бубновой, червонной, трефовой масти при вынимании карты из колоды; 4) появление шара с № 1, 2, 3 при вынимании одного шара из урны, содержащей 10 перенумерованных шаров. Существуют группы событий, обладающие всеми тремя свойствами: они образуют полную группу, несовместны и равновозможны; на- пример: появление герба и цифры при бросании монеты; появление 1, 2, 3, 4, 5, 6 очков при бросании игральной кости. События, образующие такую группу, называются случаями (иначе «шан- сами»). Если какой-либо опыт пр своей структуре обладает симметрией возможных исходов, то случаи представляют собой исчерпывающую систему равновозможных и исключающих друг друга исходов опыта. Про такой опыт говорят, что он «сводится к схеме случаев» (иначе — к «схеме урн»). Схема случаев по преимуществу имеет место в искусственно ор- ганизованных опытах, в которых заранее и сознательно обеспечена одинаковая возможность исходов опыта (как, например, в азартных играх). Для таких опытов возможен непосредственный подсчет ве- роятностей, основанный на оценке доли так называемых «благопри- ятных» случаев в общем числе случаев. . Случай называется благоприятным (или «благоприятствующим») некоторому событию, если появление этого случая влечет за собой появление данного события. Например, при бросании игральной кости возможны шесть слу- чаев: появление 1, 2, 3, 4, 5, 6 очков. Из них событию А—появ-
2.2] НЕПОСРЕДСТВЕННЫЙ ПОДСЧЕТ ВЕРОЯТНОСТЕЙ 27 лению четного числа очков—благоприятны три случая: 2, 4, 6 и не благоприятны остальные три. Если опыт сводится к схеме случаев, то вероятность события А в данном опыте можно оценить по относительной доле благоприят- ных случаев. Вероятность события А вычисляется как отношение числа благоприятных случаев к общему числу случаев: Р(А) = ^-, (2.2.1) где Р(А) — вероятность события А; п — общее число случаев; т— число случаев, благоприятных событию А. Так как число благоприятных случаев всегда заключено между О и п (0 — для невозможного и п — для достоверного события), то вероятность события, вычисленная по формуле (212.1), всегда есть рациональная правильная дробь: 0<Р(Л)<1. (2.2.2) Формула (2.2.1), так называемая «классическая формула» для вы- числения вероятностей, долгое время фигурировала в литературе как определение вероятности. В настоящее время при определении (по- яснении) понятия вероятности обычно исходят из других принципов, непосредственно связывая понятие вероятности с эмпирическим поня- тием частоты; формула же (2.2.1) сохраняется лишь как формула для непосредственного подсчета вероятностей, пригодная тогда и только тогда, когда опыт сводится к схеме случаев, т. е. обладает симметрией возможных исходов. Пример 1. В урне находится 2 белых и 3 черных шара. Из урны на- угад вынимается один шар. Требуется найти вероятность того, что этот шар будет белым. Решение. Обозначим А событие, состоящее в появлении белого шара. Общее число случаев п = 5; число случаев, благоприятных событию Л, т =» 2. Следовательно, 2 Пример 2. В урне а белых и b черных шаров. Из урны вынимаются два шара. Найти вероятность того, что оба шара будут белыми. Реш е н и е. Обозначим В событие, состоящее в появлении двух белых шаров. Подсчитаем общее число возможных случаев п и число случаев /и благоприятных событию В: 2 п ~ ^а+ь* т = С2ах)- следовательно, С2 Ьа+Ь *) Знаком обозначено число сочетаний из k элементов по I
28 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ. 2 Пример 3. В партии из N изделий М бракованных. Из партии выби- рается наугад п изделий. Определить вероятность того, что среди этих п изделий будет ровно т бракованных. Решение. Общее число случаев, очевидно, равно число благо- приятных случаев откуда вероятность интересующего нас события C%CZ~nL 2.3. Частота, или статистическая вероятность, события Формула (2.2.1) для непосредственного подсчета вероятностей применима только, когда опыт, в результате которого может по- явиться интересующее нас событие, обладает симметрией возможных исходов (сводится к схеме случаев). Очевидно, что далеко не всякий опыт может быть сведен к схеме случаев, и существует обширный класс событий, вероятности которых нельзя вычислить по формуле (2.2.1). Рассмотрим, например, неправильно выполненную, несимме- тричную игральную кость. Выпадение определенной грани уже не будет характеризоваться вероятностью -g-; вместе с тем ясно, что для данной конкретной несимметричной кости выпадение этой грани обладает некоторой вероятностью, указывающей, насколько, часто в среднем должна появляться данная грань при многократном бросании. Очевидно, что вероятности таких событий, как «попадание в цель при выстреле», «выход из строя радиолампы в течение од- ного часа работы» или «пробивание брони осколком снаряда», так- же не могут быть вычислены по формуле (2.2.1), так как соот- ветствующие опыты к схеме случаев не сводятся. Вместе с тем ясно, что каждое из перечисленных событий обладает определенной сте- пенью объективной возможности, которую в принципе можно изме- рить численно и которая при повторении подобных опытов будет отражаться в относительной частоте соответствующих событий. По- этому мы будем считать, что каждое событие, связанное с массой однородных опытов, ^-сводящееся к схеме случаев или нет, — имеет определенную вероятность, заключенную между нулем и единицей. Для событий, сводящихся к схеме случаев, эта вероятность может быть вычислена непосредственно по формуле (2.2.1). Для событий, не сводящихся к схеме случаев, применяются другие способы опре- деления вероятностей. Все эти способы корнями своими уходят в опыт, в эксперимент, и для того чтобы составить представление об этих способах, необходимо уяснить себе понятие частоты собы- тия и специфику той органической связи, которая существует между вероятностью и частотой. Если произведена серия из п опытов, в каждом из которых могло появиться или не появиться некоторое событие Я, то частотой
2.3] ЧАСТОТА, ИЛИ СТАТИСТИЧЕСКАЯ ВЕРОЯТНОСТЬ, СОБЫТИЯ 29 события А в данной серии опытов называется отношение числа опы- тов, в которых появилось событие Л, к общему числу произведен- ных опытов. Частоту события часто называют его статистической вероят- ностью (в отличие от ранее введенной «математической» вероятности). Условимся обозначать частоту (статистическую вероятность) со- бытия А знаком Р* (Л). Частота события вычисляется на основании результатов опыта по формуле (2.3.1) где т — число появлений события Л; и — общее число произведен- ных опытов. При небольшом числе опытов частота события носит в значи- тельной мере случайный характер и может заметно изменяться от одной группы опытов к другой. Например, при каких-то десяти бро- саниях монеты вполне возможно, что герб появится только два раза (частота появления герба будет равна 0,2); при других десяти бро- саниях мы вполне можем получить 8 гербов (частота 0,8). Однако при увеличении числа опытов частота события все более теряет свой случайный характер; случайные обстоятельства, свойственные каж- дому отдельному опыту, в массе взаимно погашаются, и частота проявляет тенденцию стабилизироваться, приближаясь с незначитель- ными колебаниями к некоторой средней, постоянной величине. На- пример, при многократном бросании монеты частота появления герба r 1 будет лишь незначительно уклоняться от у. Это свойство «устойчивости частот», многократно проверенное экспериментально и подтверждающееся всем опытом практической деятельности человечества, есть одна из наиболее характерных за- кономерностей, наблюдаемых в случайных явлениях. Математическую формулировку этой закономерности впервые дал Я. Бернулли в своей теореме, которая представляет собой простейшую форму закона больших чисел. Я. Бернулли доказал, что при неограниченном уве- личении числа однородных независимых опытов с практической до- стоверностью можно утверждать, что частота события будет сколь угодно мало отличаться, от его вероятности в отдельном опыте. Связь между частотой события и его вероятностью — глубокая, органическая связь. Эти два понятия по существу неразделимы. Дей- ствительно, когда мы оцениваем степень возможности какого-либо события, мы неизбежно связываем эту оценку с большей или мень- шей частотой появления аналогичных событий на практике. Характе- ризуя вероятность события каким-то числом, мы не можем придать этому числу иного реального значения и иного практического смысла, чем относительная частота появления данного события при большом числе опытов. Численная оценка степени возможности события
30 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 2 посредством вероятности имеет практический смысл именно потому, что более вероятные события происходят в среднем чаще, чем менее вероятные. И если практика определенно указывает на то, что при увеличении числа опытов частота события имеет тенденцию выравни- ваться, приближаясь сквозь ряд случайных уклонений к некоторому постоянному числу, естественно предположить, что это число и есть вероятность события,. Проверить такое предположение мы, естественно, можем только для таких событий, вероятности которых могут быть вычислены не- посредственно, т. е. для событий, сводящихся к схеме случаев, так как только для этих событий существует точный способ вычисления математической вероятности. Многочисленные опыты, производившиеся со времен возникновения теории вероятностей, действительно под- тверждают это предположение. Они показывают, что для события, сводящегося к схеме случаев, частота события при увеличении числа опытов всегда приближается к его вероятности. Вполне естественно допустить, что и для события, не сводящегося к схеме случаев, тот же закон остается в силе и что постоянное значение, к которому при увеличении числа опытов приближается частота события, пред- ставляет собой не что иное, как вероятность события. Тогда частоту события при достаточно большом числе опытов можно принять за приближенное значение вероятности. Так и поступают на практике, определяя из опыта вероятности событий, не сводящихся к схеме случаев. Следует отметить, что характер приближения частоты к вероят- ности при увеличении числа опытов несколько отличается от «стрем- ления к пределу» в математическом смысле слова. Когда в математике мы говорим, что переменная хп с возраста- нием п стремится к постоянному пределу а, то это означает, что разность \хп— а\ становится меньше любого положительного числа s для всех значений п, начиная с некоторого достаточно большого числа. Относительно частоты события и его вероятности такого кате- горического утверждения сделать нельзя. Действительно, нет ничего физически невозможного в том, что при большом числе опытов ча- стота события будет значительно уклоняться от его вероятности; но такое значительное уклонение является весьма маловероятным, тем менее вероятным, чем большее число опытов произведено. На- пример, при бросании монеты 10 раз физически возможно (хотя и маловероятно), что все 10 раз появится герб, и частота появления герба будет равна 1; при 1000 бросаниях такое событие все еще остается физически возможным, но приобретает настолько малую ве- роятность, что его смело можно считать практически неосуществи- мым. Таким образом, при возрастании числа опытов частота прибли- жается к вероятности, но не с полной достоверностью, а с большой
2.3] ЧАСТОТА. ИЛИ СТАТИСТИЧЕСКАЯ ВЕРОЯТНОСТЬ, СОБЫТИЯ 31 « вероятностью, которая при достаточно большом числе опытов может рассматриваться как практическая достоверность. В теории вероятностей чрезвычайно часто встречается такой ха- рактер приближения одних величин к другим, и для его описания введен специальный термин: «сходимость по вероятности». Говорят, что величина Хп сходится по вероятности к вели- чине а, если при сколь угодно малом е вероятность неравенства |Л'Я — л|< е с увеличением п неограниченно приближается к единице. Применяя этот термин, можно сказать, что при увеличении числа опытов частота события не «стремится» к вероятности события, а «сходится к ней' по вероятности». Это свойство частоты и вероятности, изложенное здесь пока без достаточных математических оснований, просто на основании прак- тики и здравого смысла, составляет содержание теоремы Бер- нулли, которая будет доказана нами в дальнейшем (см. гл. 13). Таким образом, вводя понятие частоты события и пользуясь связью между частотой и вероятностью, мы получаем возможность приписать определенные вероятности, заключенные между нулем и единицей, не только событиям, которые сводятся к схеме случаев» но и тем событиям, которые к этой схеме не сводятся; в последнем случае вероятность события может быть приближенно определена по частоте события при большом числе опытов. В дальнейшем мы увидим, что для определения вероятности со- бытия, не сводящегося к схеме случаев, далеко не всегда необхо- димо непосредственно определять из опыта его частоту. Теория ве- роятностей располагает многими способами, позволяющими опреде- лять вероятности событий косвенно, через вероятности других собы- тий, с ними связанных. В сущности, такие косвенные способы и со- ставляют основное содержание теории вероятностей. Однако и при таких косвенных методах исследования в конечном счете все же при- ходится обращаться к экспериментальным данным. Надежность и объективная ценность всех практических расчетов, выполненных с применением аппарата теории вероятностей, определяется качеством и количеством экспериментальных данных, на базе которых этот расчет выполняется. Кроме того, при практическом применении вероятностных ме- тодов исследования всегда необходимо отдавать себе отчет в том, действительно ли исследуемое случайное явление принадлежит к ка- тегории массовых явлений, .для которых, по крайней мере на неко- тором участке времени, выполняется свойство устойчивости частот. Только в этом случае имеет смысл говорить о вероятностях собы- тий, имея в виду не математические фикции, а реальные характери- стики случайных явлений. Например, выражение «вероятность поражения самолета в воз- душном' бою для данных условий равна 0,7» имеет определенный
32 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 2 • конкретный смысл» потому что воздушные бои мыслятся как массо- вые операции, которые будут неоднократно повторяться в приблизи- тельно аналогичных условиях. Напротив, выражение «вероятность того, что данная научная про- блема решена правильно, равна 0,7» лишено конкретного смысла, и было бы методологически неправильно оценивать правдоподобие научных положений метонами теории вероятностей. 2.4. Случайная величина Одним из важнейших основных понятий теории вероятностей является понятие о случайной величине. Случайной величиной называется величина, которая в резуль- тате опыта может принять то или иное значение, причем неизвестно заранее, какое именно. Примеры случайных величин: 1) число попаданий при трех выстрелах; 2) число вызовов, поступавших на телефонную станцию за сутки; 3) частота попадания при 10 выстрелах. Во всех трех приведенных примерах случайные величины могут принимать отдельные, изолированные значения, которые можно за- ранее перечислить. Так, в примере 1) эти значения: 0, 1, 2, 3; в примере 2): 1, 2, 3, 4, ...; в примере 3): 0; 0,1; 0,2; ...; 1,0. Такие случайные величины, принимающие только отделенные друг от друга значения, которые можно заранее перечислить, называются прерывными или дискретными случайными величинами. Существуют случайные величины другого типа, например: 1) абсцисса точки попадания при выстреле; 2) ошибка взвешивания тела на аналитических весах; 3) скорость летательного аппарата в момент выхода на заданную высоту; 4) вес наугад взятого зерна пшеницы. Возможные значения таких случайных величин не отделены друг от друга; они непрерывно заполняют некоторый промежуток, кото- рый иногда имеет резко выраженные границы, а чаще — границы неопределенные, расплывчатые. Такие случайные величины, возможные значения которых непре- рывно заполняют некоторый промежуток, называются непрерывными случайными величинами.
2.4] СЛУЧАЙНАЯ ВЕЛИЧИНА 33 Понятие случайной величины играет весьма важную роль в тео- рии вероятностей. Если «классическая» теория вероятностей опери- ровала по преимуществу с событиями, то современная теория вероят- ностей предпочитает, где только возможно, оперировать со случай- ными величинами. Приведем примеры типичных* для теории вероятностей приемов перехода от событий к случайным величинам. Производится опыт, в результате которого может появиться или не появиться некоторое событие Л. Вместо события А можно рас- смотреть случайную величину X, которая равна 1, если событие А происходит, и равна 0, если событие А не происходит. Случайная величина X, очевидно, является прерывной; она имеет два возмож- ных значения: 0 и 1. Эта случайная величина называется характе- ристической случайной величиной события Л. На практике часто вместо событий оказывается удобнее оперировать их характеристи- ческими случайными величинами. Например, если производится ряд опытов, в каждом из которых возможно появление события Л, то общее число появлений события равно сумме характеристических случайных величин события Л во всех опытах. При решении многих практиче- ских задач пользование таким приемом оказывается очень удобным. С другой стороны, очень часто для вычисления вероятности события ока- зывается удобно связать это событие с какой-то непрерывной случайной ве- личиной (или системой непрерывных величин). Пусть, например, измеряются коор- динаты какого-то объекта О для того, чтобы построить точку Л4, изобра- жающую этот объект на панораме (раз- вертке) местности. Нас интересует со- бытие Л, состоящее в том, что ошиб- ка R в положении точки М не превзой- дет заданного значения г0.(рис. 2.4.1). Обозначим X, Y случайные ошибки в измерении координат объекта. Очевидно, событие попаданию случайной точки М с координатами X, Y в пределы круга радиуса г0 с центром в точке О. Другими словами, для выполнения собы- тия Л случайные величины X и Y должны удовлетворять неравенству л 2.4. L Рис. А равносильно X2 4- У2 < Го. (2.4.1) Вероятность события Л есть не что иное, как вероятность выпол- нения неравенства (2.4.1). Эта вероятность может быть определена, если известны свойства случайных величин X, К. 3-301i
34 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 2 Такая органическая связь между событиями и случайными вели- чинами весьма характерна для современной теории вероятностей, которая, где только возможно, переходит от «схемы событий» к «схеме случайных величин». Последняя схема сравнительно с пер- вой представляет собой гораздо более гибкий и универсальный аппа- рат для решения задач, относящихся к случайным явлениям. 2.5. Практически невозможные и практически достоверные события. Принцип практической уверенности В п° 2.2 мы познакомились с понятиями невозможного и досто- верного события. Вероятность невозможного события, равная нулю, и вероятность достоверного события, равная единице, занимают край- ние положения на шкале вероятностей. На практике часто приходится иметь дело не с невозможными и достоверными событиями, а с так называемыми «практически невоз- можными» и «практически достоверными» событиями. Практически невозможным событием называется событие, вероятность которого не в точности равна нулю, но весьма близка к нулю. Рассмотрим, например, следующий опыт: 32 буквы разрезной азбуки смешаны между собой; вынимается одна карточка, изображен- ная на ней буква записывается, после чего вынутая карточка воз- вращается обратно, и карточки перемешиваются. Такой опыт произ- водится 25 раз. Рассмотрим событие Л, заключающееся в том, что после, 25 выниманий мы запишем первую строку «Евгения Онегина»: «Мой дядя самых честных правил». Такое событие не является логически невозможным; можно под- / 1 \25 считать его вероятность, которая равна I -^\ ; но ввиду того что вероятность события А ничтожно мала, можно считать его практи- чески невозможным. Практически достоверным событием называется событие, ве- роятность которого не в точности равна единице, но весьма близка к единице. Если какое-либо событие А в данном опыте практически невоз- можно, то противоположное ему событие Л, состоящее в невыпол- нении события Л, будет практически достоверным. Таким образом, с точки зрения теории вероятностей все равно, о каких событиях говорить: о практически невозможных или о практически достовер- ных, так как они всегда сопутствуют друг другу. Практически невозможные и практически достоверные события играют большую роль в теории вероятностей; на них основывается все практическое применение этой науки.
2.5} ПРАКТИЧЕСКИ НЕВОЗМОЖНЫЕ И ДОСТОВЕРНЫЕ СОБЫТИЯ 85 В самом деле, если нам известно, что вероятность события в дан- ном опыте равна 0,3, это еще не дает нам возможности предсказать результат опыта. Но если вероятность события в данном опыте ни- чтожно мала или, наоборот, весьма близка к единице, это дает нам возможность предсказать результат опыта; в первом случае мы не будем ожидать появления события Л; во втором случае будем ожи- дать его с достаточным основанием. При таком предсказании мы руководствуемся так называемым принципом практической уве- ренности, который можно сформулировать следующим образом. Если вероятность некоторого события А в данном опыте Е весьма мала, то можно быть практически уверенным в том, что при однократном выполнении опыта Е событие А не произойдет. Иными словами, если вероятность события А в данном опыте весьма мала, то, приступая к выполнению опыта,' можно организовать свое поведение так, как будто это событие вообще невозможно, т. е. не рассчитывая совсем на его появление. В повседневной жизни мы непрерывно бессознательно пользуемся принципом практической уверенности. Например, выезжая в путеше- ствие по железной дороге, мы все свое поведение организуем, не считаясь с возможностью железнодорожной катастрофы, хотя неко- торая, весьма малая, вероятность такого события все же имеется. Принцип практической уверенности не может быть доказан мате- матическими средствами; он подтверждается всем практическим опы- том человечества. . Вопрос о том, насколько мала должна быть вероятность события, чтобы его можно было считать практически невозможным, выходит за рамки математической теории и в каждом отдельном случае ре- шается из практических соображений в соответствии с той важностью, которую имеет для нас желаемый результат опыта. Например, если вероятность отказа взрывателя при выстреле равна 0,01, мы еще можем помириться с этим и считать отказ взры- вателя практически невозможным событием. Напротив, если вероят- ность отказа парашюта при прыжке также равна 0,01, мы, очевидно, не можем считать этот отказ практически невозможным событием и должны добиваться большей надежности работы парашюта. Одной из важнейших задач теории вероятностей является выявле- ние практически невозможных (или практически достоверных) собы- тий, дающих возможность предсказывать результат опыта, и выявле- ние условий, при которых те или иные события становятся практи- чески невозможными (достоверными). Существует ряд теорем теории вероятностей — так называемых предельных теорем, в которых уста- навливается существование событий, становящихся практически невозможными (достоверными) при увеличении числа опытов или при увеличении числа случайных величин, участвующих в задаче.
36 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 2 Примером такой предельной теоремы является уже сформулированная выше теорема Бернулли (простейшая форма закона больших чисел). Согласно теореме Бернулли при большом числе опытов событие, заключающееся в том, что разность между частотой события и его вероятностью сколь угодно мала, становится практически достоверным. Наряду с практически невозможными (достоверными) событиями, которые позволяют с уверенностью предсказывать исход опыта, не- смотря на наличие случайности, в теории вероятностей большую роль играют особого типа случайные величины, которые, хотя и являются случайными, но имеют такие незначительные колебания, что практи- чески могут рассматриваться как не случайные. Примером такой «почти не случайной» величины может служить частота события при большом числе опытов. Эта величина, хотя и является случайной, но при большом числе опытов, практически может колебаться только в очень узких пределах вблизи вероятности события. Такие «почти не случайные» величины дают возможность пред- сказывать численный результат опыта, несмотря на наличие в нем элементов случайности, оперируя с этим результатом столь же уве- ренно, как мы оперируем с данными, которые доставляются обыч- ными методами точных наук.
ГЛАВА 3 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 3.1. Назначение основных теорем. Сумма и произведение событий В предыдущей главе мы познакомились со способами непосред- ственного определения вероятностей, а именно: с классической фор- мулой для вероятности события, сводящегося к схеме случаев, и со способом приближенного определения вероятности по частоте для события, которое к схеме случаев не сводится. Однако не эти непо- средственные способы являются основными в теории вероятностей: их применение не всегда удобно и не всегда возможно. Даже когда событие сводится к схеме случаев, зачастую эта схема бывает слишком сложна, и непосредственный подсчет вероятности по фор- муле (2.2.1) становится чрезмерно громоздким. Что касается событий, не сводящихся к схеме случаев, то и их вероятности лишь в ред- ких случаях определяются непосредственно по частотам. На практике обычно требуется определять вероятности событий, непосредствен- ное экспериментальное воспроизведение которых затруднено. Напри- мер, если требуется определить вероятность поражения самолета в воздушном бою, ясно, что определение этой вероятности по ча- стоте практически невозможно. И не только потому, что такие опыты оказались бы непомерно сложными и дорогостоящими, а еще и потому, что часто нам требуется оценить вероятность того или иного исхода боя не для существующих образцов техники, а для перспективных, проектируемых. Обычно такая оценка и произво- дится для того, чтобы выявить наиболее рациональные конструктив- ные параметры элементов перспективной техники. Поэтому, как правило, для определения вероятностей событий применяются не непосредственные прямые методы, а косвенные, поз- воляющие по известным вероятностям одних событий определять вероятности других событий, с ними связанных. Вся теория вероят- ностей, в основном, и представляет собой систему таких косвенных методов, пользование которыми позволяет свести необходимый экспе- римент к минимуму.
38 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 Применяя эти косвенные методы, мы всегда в той или иной форме пользуемся основными теоремами теории вероятностей. Этих теорем две: теорема сложения вероятностей и теорема умно* жения вероятностей. Строго говоря, оба эти положения являются теоремами и могут быть доказаны только для событий, сводящихся к схеме случаев. Для событий, не сводящихся к схеме случаев, они принимаются аксиоматически, как принципы или постулаты. Перед тем как формулировать и доказывать основные теоремы, введем некоторые вспомогательные понятия, а именно понятия о сумме событий и произведении событий. Во многих областях точных наук применяются символические операции над различными объектами, которые получают свои назва- ния по аналогии с арифметическими действиями, рядом свойств кото- рых они обладают. Таковы, например, операции сложения и умно- жения векторов в механике, операции сложения и умножения матриц в алгебре и т. д. Эти операции, подчиненные известным правилам, позволяют не только упростить форму записей, но в ряде случаев существенно облегчают логическое построение научных выводов. Введение таких символических операций над событиями оказывается плодотворным и в теории вероятностей. Суммой двух событий А и В называется событие С, состоя- щее в выполнении события А или события В, или обоих вместе. Например, если событие А — попадание в цель при первом вы- стреле, событие В — попадание в цель при втором выстреле, то событие С= A-j-B есть попадание в цель вообще, безразлично при каком выстреле — при первом, при втором или при обоих вместе. Если события А и В несовместны, то естественно, что появление обоих этих событий вместе отпадает, и сумма событий А и В сво- дится к появлению или события А, или события В. Например, если событие А — появление карты червонной масти при вынимании карты из колоды, событие В — появление карты бубновой масти, то С=Д + В есть появление карты красной масти, безразлично — чер- вонной или бубновой. Короче, суммой двух событий А и В называется событие С, состоящее в появлении хотя бы одного из событий А и В. Суммой нескольких событий называется событие, состоящее в появлении хотя бы одного из этих событий. Например, если опыт состоит в пяти выстрелах по мишени и даны события; Aq — ни одного попадания, Ах — ровно одно попадание, Д2— ровно два попадания, Л3— ровно три попадания, А4 — ровно четыре попадания, — ровно пять попаданий,
3.1] СУММА И ПРОИЗВЕДЕНИЕ СОБЫТИЙ 39 т0 л=л0-М + л2 есть событие «не более двух попаданий», а в — А3+а4 л5 есть событие «не менее трех попаданий». Произведением двух событий А и В называется событие С, состоящее в совместном выполнении события А и события В. Например, если событие А — появление туза при вынимании карты из колоды, событие В —появление карты бубновой масти, то собы- тие С = АВ есть появление бубнового туза. Если производится два выстрела по мишени и событие А — попадание при первом выстреле, событие В — попадание при втором выстреле, то С = АВ есть попадание при обоих выстрелах. Произведением нескольких событий называется событие, состоя- щее в совместном появлении всех этих событий. Например, если по мишени производится три выстрела и рассма- триваются события Вх— промах при первом выстреле, В2— промах при втором выстреле, В3 — промах при третьем выстреле, то событие В = ВХВ2В3 состоит в том, что в мишень не будет ни одного попадания. При определении вероятностей часто приходится представлять сложные события в виде комбинаций более простых событий, при- меняя и операцию сложения, и операцию умножения событий. Например, пусть по мишени производится три выстрела и рас- сматриваются следующие элементарные события: Ах — попадание при первом выстреле, Д — промах при первом выстреле, А2—попадание при втором выстреле, А2 — промах при втором выстреле, А3 — попадание при третьем выстреле, Л3— промах при третьем выстреле. Рассмотрим более сложное событие В, состоящее в том, что в результате данных трех выстрелов будет ровно одно попада- ние в мишень. Событие В можно представить • в виде следующей комбинации элементарных событий: В = Л1 Д2^3 4" ^1^2^3 4* Событие С, состоящее в том, что в мишень будет не менее двух попаданий, может быть представлено в виде: С = Д1Л2Д3 4- А^Д^З 4“ ^1^2^3 + АзАг
40 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 Такие приемы представления сложных событий часто применяются в теории вероятностей. Непосредственно из определения суммы и произведения событий следует, что А-}-А—А, АА = А. случай события Я, то . Я + В = Я; Если событие В есть частный а) Л Рис. 3.1.1. яв = в. При пользовании понятиями суммы и произведения событий часто оказывается полезной на- глядная геометрическая интер- претация этих понятий. На рис. 3.1.1 наглядно Рис. 3.1.2. На рис. иллюстрированы понятия суммы и произведения двух событий. Если событие А есть попада- ние точки в область Я, соот- ветственно событие В — по- падание в область В, то событие ЯН-В есть попада- ние в область, заштрихован- ную на рис. 3.1.1, а), а собы- тие АВ — в область, заштри- хованную на рис. 3.1.1, tf). событий. 3J.2 аналогично показаны сумма и произведение трех 3.2. Теорема сложения вероятностей Теорема сложения вероятностей формулируется следующим образом. Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий*. Р(Я + В) = Р(Я)4-Р(В). (3.2.1) Докажем теорему сложения вероятностей для схемы случаев. Пусть возможные исходы опыта сводятся к совокупности случаев, которые мы для наглядности изобразим в виде п точек: т~A k~B п
3.2) ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ 41 Предположим, что из этих случаев т благоприятны событию Д, a k — событию В. Тогда Р(Л) = ^-; Р(В) = < Так как события А и В несовместны, то нет таких случаев, которые благоприятны и Д, и В вместе. Следовательно, событию А-\-В благоприятны m-\-k случаев и Р(Л-|-£) = ? + *. Подставляя полученные выражения в формулу (3.2.1), получим тождество. Теорема доказана. Обобщим теорему сложения на случай трех событий. Обозначая событие Д-f-B буквой D и присоединяя к сумме еще одно собы- тие С, легко доказать, что Р(Д4-В4-С) = Р(О + С) = Р(О) + Р(С) = = Р(ДН-В) + Р(С) = Р(Д) + Р(В) + Р(С). Очевидно, методом полной индукции можно обобщить теорему сложения на произвольное число несовместных событий. Действи- тельно, предположим, что она справедлива для п событий: А- А......Ап- и докажем, что она будет справедлива для п 4- 1 событий: Др А2, ...» Дл, Ai+p Обозначим: Д14-Д24~ • •• Ап=С. Имеем: РСЛ + Д2+ ... +An + An^)^P(C+A/l+i)=P(C) + P(Arl^. Но так как для п событий мы считаем теорему уже доказанной, то Р(С) = Р(А1)+Р(А2) + .._+Р(Дл), откуда Р(Д1-ЬД2+ ... + Ап 4- Дл+1) = = Р(Д1)4-/>(Л2)+ ... 4-Р(дя)+Р(дл+1), что и требовалось доказать. Таким образом, теорема сложения вероятностей применима к лю- бому числу несовместных событий. Ее удобно записать в виде: />(2a) = 2₽W (3.2.2) \/=1 / 1-1
42 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 Отметим следствия, вытекающие из теоремы сложения вероят- ностей. Следствие 1. Если события Лр Л2, .Ап образуют пол- ную группу несовместных событий, то сумма их вероятностей равна единице: п i-l Доказательство. Так как события Лр Л2, ..., Ап образуют полную группу, то появление хотя т бы одного из них — достоверное событие: Р(Л1-нл2+ ... +Лл)=1. Так как Лр Л2, .... Ап — несовместные события, то к ним приме- нима теорема сложения вероятностей п Р (А, Н- А2 Н- ... + А„) = Р (Д) + Р (А£ + ... -I- Р(Ап) = 5 р (4J, откуда п i = l что и требовалось доказать. Перед тем как вывести второе следствие теоремы сложения, определим понятие о «противоположных событиях». Противоположными событиями называются два несовместных события, образующих полную группу. ' Событие, противоположное событию Л, принято обозначать Л. Примеры противоположных событий. 1) Л—попадание при выстреле, Л — промах при выстреле; 2) В — выпадение герба при бросании монеты, В — выпадение цифры при бросании монеты; 3) С — безотказная работа всех элементов технической системы, С — отказ хотя бы одного элемента; 4) D — обнаружение не менее двух бракованных изделий в конт- рольной партии, D — обнаружение не более одного бракованного изделия. Следствие 2. Сумма вероятностей противоположных событий равна единице: Р(Л) + Р(Л)=1. Это следствие есть частный случай следствия 1. Оно выделено особо ввиду его большой важности в практическом применении теории вероятностей. На практике весьма часто оказывается легче вычислить
3.2] ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ 43 вероятность противоположного события А, чем вероятность прямого события А. В этих случаях вычисляют Р (Л) и находят Р (Л) =1 — Р(А). Рассмотрим несколько примеров на применение теоремы сложения и ее следствий. Пример 1. В лотерее 1000 билетов; из них на один билет падает выигрыш 500 руб., на 10 билетов — выигрыши по 100 руб., на 50 билетов — выигрыши по 20 руб., на 100 билетов — выигрыши по 5 руб., остальные билеты невыигрышные. Некто покупает один билет. Найти вероятность выиграть не менее 20 руб. Решение. Рассмотрим события: А —выиграть не менее 20 руб., Л! — выиграть 20 руб., А2— выиграть 100 руб., Л3— выиграть 500 руб. Очевидно, л = Л] а2 *4" л2. По теореме сложения вероятностей Р (Л) = Р (Ла + Р (Л2) + Р (Л3) = 0,050 + 0,010 + 0,001 = 0,061. П р и м е р 2. Производится бомбометание по трем складам боеприпасов, причем сбрасывается одна бомба. Вероятность попадания в первый склад 0,01; во второй 0,008; в третий 0,025. При попадании в один из складов взры- ваются все три. Найти вероятность того, что склады будут взорваны. Решение. Рассмотрим события: Л —взрыв складов, X. Л| — попадание в первый склад, / \ А2 — попадание во второй склад, / / \ \ Л3 — попадание в третий склад. I [ й] Щ Очевидно, \ \ / / л = л1 + л2+л3. \ / Так как при сбрасывании одной бомбы события ЛР У Л2, Л3 несовместны, то Р (Л) = Р (Л J 4- Р (Л2) + Р (Л3) = Рис 3 2 1 = 0,01 + 0,008 + 0,025 = 0,043. Пример 3. Круговая мишень (рис. 3.2.1) состоит из трех зон: /, II и ///. Вероятность попадания в первую зону при одном выстреле 0,15, во вторую 0,23, в третью 0,17. Найти вероятность промаха. Решение. Обозначим Л — промах, , Л — попадание. Тогда _____ Л = Л] -f- Л2 -j- Л3, где Л], А2, Лз — попадание соответственно в первую, вторую и третью зоны Р (Л) = Р (Л) 4- Р (Л2) 4- Р (Дз) = 0,15 4- 0,23 4- 0,17 = 0,55, откуда Р (Л) = 1Р (Л) == 0,45.
44 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ. 1 Как уже указывалось, теорема сложения вероятностей (3.2.1) справедлива только для несовместных событий. В случае, когда со- бытия А и В совместны, вероятность суммы этих событий выражается формулой Р (А + В) = Р (Л) + Р (В)— Р (АВ). (3.2.3) В справедливости формулы (3.2.3) можно наглядно убедиться, рас- сматривая рис. 3.2J2. Рис. 3.2.2. Рис. 3.2.3. Аналогично вероятность суммы трех совместных событий вы- числяется по формуле Р(Л+В + С) = = Р(А) + Р(В) + Р(С) — Р(АВ) — Р(АС) — Р(ВС) + Р(АВС). Справедливость этой формулы также наглядно следует из геометри- ческой интерпретации (рис. 3.2.3). Методом полной индукции можно доказать общую формулу для вероятности суммы любого числа совместных событий: (п \ 2 =2 Р (А) - 2 Р (А А) +2/- • • • ... +(-1)л-1 Р(АА ... А„), (3.2.4) где суммы распространяются на различные значения индексов /; /, У; /, у, Л, и т. д. Формула (3.2.4) выражает вероятность суммы любого числа собы- тий через вероятности произведений этих событий, взятых по одному, по два, по три и т. д. Аналогичную формулу можно написать для произведения собы- тий. Действительно, из рис. 3.2.2 непосредственно ясно, что Р (АВ) = Р (А) 4- Р (В) — Р (A -J- В). (3.2.5) Из рис. 3.2.3 видно, что Р(АВС) = Р(А)-^Р(В) + Р(С) — Р(А + В) — — Р(А + С) — Р(В4-С)4-Р(Л4-В + С). (3.2.6)
3.3] ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ 45 Общая формула, выражающая вероятность произведения произ- вольного числа событий через вероятности сумм этих событий, взя- тых по одному, по два, по три и т. д., имеет вид: Р (АА • • • А) = 2 р (Л) - 2 р (А+А)+ i i, J + 2 Р(Л + А+А)+---+(-1)'”1^(А+--- + А)- (3-2.7) h j,k Формулы типа (3.2.4) и (3.2.7) находят практическое применение при преобразовании различных выражений, содержащих вероятности сумм и произведений событий. В зависимости от специфики задачи в некоторых случаях удобнее бывает пользоваться только суммами, а в других только произведениями событий: для преобразования одних в другие и служат подобные формулы. Пример. Техническое устройство состоит из трех агрегатов: двух агрегатов первого типа — Л1 и А2— и одного агрегата второго типа — В. Агрегаты 4| и Л2 дублируют друг друга: при отказе одного из них про- исходит автоматическое переключение на второй. Агрегат В не дублирован. Для того чтобы устройство прекратило работу (отказало), нужно, чтобы одновременно отказали оба агрегата и А2 или же агрегат В. Таким обра- зом, отказ устройства — событие С — представляется в виде: С = А^ + В, где Ai — отказ агрегата Alf А2 — отказ агрегата А2, В — отказ агрегата В. Требуется выразить вероятность события С через вероятности событий, содержащих только суммы, а не произведения элементарных событий Ль Л2 и В. Решение. По формуле (3.2.3) имеем: Р (С) = Р G4t А2) + Р(В)-Р (А А2В); (3.2.8) по формуле (3.2.5) Р (А, А) = Р (Л J + Р (Л2) - Р (Л{ + Л2); по формуле (3.2.6) Р (АХА2В) = Р (Л,) + Р (Л2) + Р(В)-Р(Л1 + Л2)- -Р(Л1 + В)~Р(Л2 + В) + Р(Л1 + Л2 + В). Подставляя эти выражения в (3.2.8) и производя сокращения, получим: Р(С) = Р(Л1 + В) + Р(Л2 + В)-Р(Л1 + Л2 + В). 3.3. Теорема умножения вероятностей Перед тем как излагать теорему умножения вероятностей, введем еще одно важное понятие: понятие о независимых и зависимых со- бытиях. Событие А называется независимым от события В. если ве- роятность события А не зависит от того, произошло событие В или нет.
46 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 8 Событие А называется зависимым от события В, если вероят- ность события А меняется в зависимости от того, произошло собы- тие В или нет. Рассмотрим примеры. 1) Опыт состоит в бросании двух монет; рассматриваются события: А — появление герба на первой монете, В — появление герба на второй монете. В данном случае вероятность события А не зависит от того, произошло событие В или нет; событие А независимо от со- бытия В. 2) В урне два белых шара и один черный; два лица вынимают из урны по одному шару; рассматриваются события: А — появление белого шара у 1-го лица, В — появление белого шара у 2-го лица. Вероятность события А до того, как известно что-либо о собы- 2 тии В, равна у. Если стало известно, что событие В произошло, то вероятность события А становится равной из чего заключаем, что событие А зависит от события В. Вероятность события А, вычисленная при условии, что имело место другое событие В, называется условной вероятностью события А и обозначается Р(Л|В). Для условий последнего примера Р(Л) = |; Р(Л|В) = |? Условие независимости события А от события В можно записать в виде: Р(Д|В) = Р(4), а условие зависимости — в виде: Р(Л|В)=£Р(Д). Перейдем к формулировке и доказательству теоремы умножения вероятностей. Теорема умножения вероятностей . формулируется следующим образом. Вероятность произведения двух событий равна произведе- нию вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое имело место: Р (АВ) = Р(А)Р(В\ А), (3.3.1)
3.3J ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ 47 Докажем теорему умножения для схемы случаев. Пусть возможные исходы опыта сводятся к п случаям, которые мы снова для нагляд- ности изобразим в виде п точек: k~B т~ А .------ —- » ДВ п Предположим, что событию А благоприятны т случаев, а собы- тию В благоприятны k случаев. Так как мы не предполагали собы- тия А и В несовместными, то вообще существуют случаи, благо- приятные и событию Д, и событию В одновременно. Пусть число таких случаев I. Тогда Р(ЛВ) = |; Р(Л) = -£. Вычислим Р(В\А)> т. е. условную вероятность события В в предпо- ложении, что А имело место. Если известно, что событие А про- изошло, то из ранее возможных п случаев остаются возможными только те т, которые благоприятствовали событию Л. Из них I случаев благоприятны событию В. Следовательно, Подставляя выражения Р(АВ), Р(А) и Р(В \ А) в формулу (3.3.1), получим тождество. Теорема доказана. Очевидно, при применении теоремы умножения вполне безраз- лично, какое из событий А и В считать первым, а какое вторым, и теорему умножения можно записать и в таком виде: Р(АВ) = Р(В)Р(А\В). Отметим следствия, вытекающие из теоремы умножения. Следствие 1. Если событие А не зависит от события В, то и событие В не зависит от события Д. Доказательство. Дано, что событие А не зависит от В, т. е. ' Р(Д) = Р(Д|В). (3.3.2) Требуется доказать, что и событие В не зависит от Д, т. е. Р(В) = Р(В| Д). Прн доказательстве будем предполагать, что Р(Д)=#0.
48 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ. 1 Напишем теорему умножения вероятностей в двух формах; Р(АВ) = Р(А)Р(В\А), Р(ДВ) = Р(В)Р(Д|В). откуда Р(А)Р(В\А) = Р(В)Р(А\В) или. согласно условию (3.3.2). Р (Д) Р {В | Д) = Р (В) Р (Л). (3.3.3) Разделим обе части равенства (3.3.3) на Р(Л). Получим: Р(В|Л) = Р(В), что и требовалось доказать. Из следствия 1 вытекает, что зависимость или независимость событий всегда взаимны. В связи с этим можно дать следующее новое определение независимых событий. Два события называются независимыми, если появление од- ного из них не изменяет вероятности появления другого. Понятие независимости событий может быть распространено на случай произвольного числа событий. Несколько событий называются независимыми, если любое из них не зависит от любой совокупности остальных. Следствие 2. Вероятность произведения двух независимых событий равна произведению вероятностей этих событий. Следствие непосредственно вытекает из определения независимых событий. Теорема умножения вероятностей может быть обобщена на слу- чай произвольного числа событий. В общем виде она формули- руется так. Вероятность произведения нескольких событий равна произведе- нию вероятностей этих событий, причем вероятность каждого сле- дующего по порядку события вычисляется при условии, что все предыдущие имели место: Р (Д, Л ... А„) = Р (ДО Р (А2 I ДО Р (Д31 Д1 At) ... ... P(A,|AA ... Дл_0- (3.3.4) Доказательство может быть дано тем же методом полной индукции. В случае независимых событий теорема упрощается и принимает вид: р (AAt ... Д„) = Р(ДО Р(ДО ... Р (Дв). (3.3.5) т. е. вероятность произведения независимых событий равна произведению, вероятностей этих событий. Применяя знак произведения, теорему можно записать в виде: (3-3-6)
3.3] ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ 49 Рассмотрим примеры на применение теоремы умножения вероят- ностей. Пример 1. В урне 2 белых и 3 черных шара. Из урны вынимают подряд два шара. Найти вероятность того, что оба шара белые. Решение. Обозначим: А — появление двух белых шаров. Событие А представляет собой произведение двух событий: А = AjAgf где j4t — появление белого шара при первом вынимании, А2— появление белого шара при втором вынимании. По теореме умножения вероятностей 2 1 Р (Л) = Р (ЛО Р (Л2|Л0 = у • ± = 0,1. Пример 2. Те же условия, но после первого вынимания шар возвра- щается в урну, и шары в урне перемешиваются. Решение. В данном случае события Л! и Л2 независимы и 2 2 Р(А) = Р (Л.) Р (Л2) = I • I - 0.16. Пример 3. Прибор, работающий в течение времени /, состоит из трех узлов, каждый из которых, независимо от других, может в течение времени t отказать (выйти . из строя). Отказ хотя бы одного узла приводит, к отказу прибора в целом. За время t надежность (вероятность безотказной работы) первого узла равна р\ = 0,8; второго р2 = 0,9; третьего р2 = 0,7. Найти на- дежность прибора в целом. Решение. Обозначая: А —безотказная работа прибора, Л1 — безотказная работа первого узла, А2 — безотказная работа второго узла, Л3 — безотказная работа третьего узла, имеем: Л = Л1Л2Л3, откуда по теореме, умножения для независимых событий Р (Л) = Р (Л{) Р (Л2) Р (Л3) « plP2p2 - 0,504. На фактике сравнительно редко встречаются задачи, в которых нужно применять только теорему сложения или только теорему умножения вероятностей. Обычно обе теоремы приходится применять совместна. При этом, как правило, событие, вероятность которого требуется определить, представляется в виде суммы нескольких не- совместных событий (вариантов данного события), каждое из кото- рых в свою очередь является произведением событий.
50 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 Пример 4. Производится три выстрела по одной и той же мишени. Вероятности попадания при первом, втором и третьем выстрелах равны соответственно Pi = 0,4; р2 = 0,5; р3 = 0,7. Найти вероятность того, что в результате этих трех выстрелов в мишени будет ровно одна пробоина. Решение. Рассмотрим событие А — ровно одно попадание в мишень. Это событие может осуществиться несколькими способами, т. е. распадается на несколько несовместных вариантов: может быть попадание при первом выстреле,' промахи при втором и третьем; или же попадание при втором выстреле, промахи при первом и третьем; или, наконец, промахи при первом и втором выстрелах и попадание при третьем. Следовательно, А ==5 AiА2А3 -f“ Л1Л2Лз -J- Л|Л2Лз, . где Л^, Л2, Аз— попадание при первом, втором, третьем выстрелах, Ль Л2, Л3— промах при первом, втором, третьем выстрелах. Применяя теоремы сложения и умножения вероятностей и пользуясь свойством противоположных событий, находим: Р (Л) = Р (Л1Л2Л3) + Р (Л, Л2Л3) + Р (Л, Л2Л3) = = 0,4 • 0,5 • 0,3 + 0,6 • 0,5 • 0,3 + 0,6 • 0,5 • 0,7 == 0,36. Пример 5. В условиях предыдущего примера найти вероятность того, что в мишени будет хотя бы одна пробоина. Решение. Рассмотрим событие В — хотя бы одно попадание в мишень. Пользуясь тем же приемом, который был применен в предыдущем примере, и теми же обозначениями, можно представить событие В в виде суммы не* совместных вариантов: В = Л1Л2Л3 Л^гЛз 4" Л1Л2Л3 4* Л[ Л2Л3 4- Л| Л2Л3 4- Ai Л2Л3 4“ Ai Л2Л3, найти вероятность каждого варианта по теореме умножения и все эти ве- роятности сложить. Однако такой путь решения задачи слишком сложен; здесь целесообразно от прямого события В перейти к противоположному: В — ни одного попадания в мишень. Очевидно, __________ В Л1Л2Л3. По теореме умножения Р (В) = Р (Ai А2А3) = 0,6 • 0,5 • 03= 0,09, откуда Р (В) = 1 — Р(В) = 1 — 0,09 = 0,91. На последнем примере проиллюстрирован принцип целесообраз- ности применения противоположных событий в теории вероятностей. Его можно сформулировать следующим образом. Если противоположное событие распадается на меньшее число вариантов, чем прямое событие, то имеет смысл при вычислении вероятностей переходить к противоположному событию.
3.31 ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕН 51 Пример 6. Происходит бой («дуэль») между двумя участниками (ле- тательными аппаратами, тайками, кораблями) Л и В. У стороны А в запасе два выстрела, у стороны В— один. Начинает стрельбу А: он делает по В один выстрел и поражает его с вероятностью 0,2. Если В не поражен, он отвечает противнику выстрелом и поражает его с вероятностью 0,3. Если А этим выстрелом не поражен, то он делает по В свой последний выстрел, которым поражает его с вероятностью 0,4. Найти вероятность того, что в бою будет поражен: а) участник А, б) участник В, Решение. Рассмотрим события: А — поражение участника А, В — поражение участника В. Для выполнения события А необходимо совмещение (произведение) двух событий: 1) А не поразил В первым выстрелом и 2) В поразил А своим ответным выстрелом. По теореме умножения вероятностей получим Р (Л) = 0,8 • 0,3 = 0,24. Перейдем к событию В. Оно, очевидно, состоит из двух несовместных вариантов: B = Bi + B2, где Bj — поражение участника В первым выстрелом Л, В2 — поражение участника В вторым выстрелом Л. По теореме сложения вероятностей Р(В) = Р(В() + Р(В2). По условию Р(В]) = 0,2. Что касается события В2, то оно представляет собой совмещение (произведение) трех событий, а именно: 1) первый выстрел стороны Л не должен поразить В; 2) ответный выстрел стороны В не должен поразить Л; 3) последний (второй) выстрел стороны Л должен поразить В. По теореме умножения вероятностей Р(В2) = 0,8 • 0,7 • 0,4 = 0,224, откуда Р (В) = 0,2 + 0,224 = 0,424. Пример 7. Цель, по которой ведется стрельба, состоит из трех раз- личных по уязвимости частей. Для поражения цели достаточно одного по- падания в первую часть, или двух попаданий во вторую, или трех попаданий в третью. Если снаряд попал в цель, то вероятность ему попасть в тужили другую часть пропорциональна площади этой части. На проекций цели на плоскость, перпендикулярную направлению стрельбы, первая, вторая и третья части занимают относительные площади 0,1, 0,2 и 0,7. Известно, что в цель попало $овно два снаряда. Найти вероятность того, что цель будет поражена. Решение. Обозначим Л — поражение цели; Р(Л|2) — условную ве- роятность поражения цели при условии/ что в нее попало ровно два сна- ряда. Дв . снаряда, попавшие в цель, могут поразить ее двумя способами: или хо' я бы один из них попадает в первую часть, или же оба снаряда попадут во вторую. Эти варианты несовместны, так как в цель попало всего два снаряда; поэтому можно применить теорему сложения. Вероятность того, что хотя бы один снаряд попадет в первую часть, может быть вычис- лена через вероятность противоположного события (ни один из двух сна- рядов не попадет в первую часть) и равна 1 — 0,92. Вероятность того, что оба снаряда попадут во вторую часть, равна 0,22. Следовательно, Р (Л 12) = 1 — 0,92 4- 0,22 = 0,23.
52 ОСНОВНЫЕ ТЁОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 Пример 8. Для условий предыдущего примера найти вероятность поражения цели, если известно, что в .нее попало три снаряда. Решение. Решим задачу двумя способами: через прямое и противо- положное событие. Прямое событие — поражение цели при трех попаданиях — распадается на четыре несовместных варианта: Л1 — хотя бы одно попадание в первую часть, А2 — два попадания во вторую часть и одно — в третью, Л3— три попадания во вторую часть, Л4 —три попадания в третью часть. Вероятность первого варианта находим аналогично предыдущему при- меру: = 0,93 = 0,271. Найдем вероятность второго варианта. Три попавших снаряда могут распределиться по второй и третьей частям нужным образом (два во вторую и один — в третью) тремя способами (с| = 3). Следовательно, Р(Л2) = 3.0,22.0,7 = 0,084. Далее находим: Р (Л3) = 0,23 = 0,008, . Р (Л4) = 0,73 = 0,343. Отсюда Р (Л [ 3) = 0,271 + 0,084 + 0,008 + 0,343 = 0,706. Однако проще решается задача, если перейти к противоположному со- бытию — непоражению цели при трех попаданиях. Это событие может осу- ществиться только одним способом: если два снаряда из трех попадут в третью часть, а один — во вторую. Таких комбинаций • может быть три ^С| = 3), следовательно, _ Р (Л13) = 3 • 0,72. о,2 = 0,294, откуда Р (Л |3) = 1—0,294 = 0,706. Пример 9. Монета бросается 6 раз. Найти вероятность того, что выпадет больше гербов, чем цифр. Решение. Для нахождения вероятности интересующего ндс события Л (выпадет больше гербов, чем цифр) можно было бы перечислить все воз- можные его варианты, например: Л) — выпадет шесть гербов и ни одной цифры, Л2— выпадет пять гербов и одна цифра и т. д. „ Однако проще будет применить другой прием. Перечислим все возмож- ные исходы опыта; Л — выпадет больше гербов, чем цифр, В — выпадет больше цифр, чем гербов, С —• выпадет одинаковое число цифр й гербов. События Л, В, С несовместны и образуют полную группу. Следова- тельно, 1 _ Р(Я)+Р(В) + #(С) = 1.
8.3] ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ 63 Так как задача симметрична относительно «герба» и «цифры», откуда и Р(Л) = Р(В), 2Р(Л)4-Р(С) = 1 Найдем вероятность события С, состоящего в том, что при шести бро- саниях монеты появится ровно три герба (а значит, ровно три цифры). Веро- ятность любого из вариантов события С (например, последовательности / 1 \б г, ц, г, г, ц, ц при шести бросаниях) одна и та же и равна (-ту I • Число таких комбинаций равно С| = 20 (числу способов, какими можно из шести броса- ний выбрать три, в которых появился герб). Следовательно, F(C)“ 64 ~ 16 ’ отсюда Пример 10..Прибор состоит из четырех узлов: Ль Л2, Л3, Л4, причем, узел Л2 дублирует Лр а узел Л4 дублирует узел Л3. При отказе (выходе из строя) любого из основных узлов (Л| или Л3) происходит автоматическое переключение на дублирующий узел. Надежность (вероятность безотказной работы) в течение заданного времени каждого из узлов равна соответственно Ръ р2* Рз> р4* Надежность каждого из переключающих устройств равна р. Все элементы выходят из строя независимо друг от друга. Определить на- дежность прибора. Решение. Рассмотрим совокупность узлов Ль Л2 и соответствующего переключающего устройства как один «обобщенный узел» В, а совокупность узлов Л3, Л4 и соответствующего переключающего устройства — как обоб- щенный узел С. Рассмотрим события: Л — безотказная работа прибора, В — безотказная работа обобщенного узла В, С — безотказная работа обобщенного узла С. Очевидно, Л = ВС, . откуда Р(Л) = Р(В)Р(С). Найдем вероятность события В. Ойо распадается на два варианта: Л! — исправно работал узел и А'2 — узел Л1 отказал, но оказались исправными переключающее устройство и узел Л2. Имеем: Р (В) = Р (Л]) + Р (Л^) = /?] + (!— />j) ррг, аналогично Р (С) = />з 4- (1 — />3) ррь откуда Р М) = (А + (1 — А) РРг) 1Рз + (1 — А) РА)-
54 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 3.4. Формула полной вероятности Следствием обеих основных теорем — теоремы сложения вероят- ностей и теоремы умножения вероятностей—является так называемая формула полной вероятности. Пусть требуется определить вероятность некоторого события Л, которое может произойти вместе с одним из событий: Ну н2......нп, образующих полную группу несовместных событий. Будем эти собы- тия называть гипотезами. Докажем, что в этом случае п Р{А) = ^Р{Н^Р(А\Н^, (3.4.1) / = 1 т. е. вероятность события А вычисляется как сумма произведений вероятности каждой гипотезы на вероятность события при этой ги- потезе. Формула (3.4.1) носит название формулы полной вероятности. Доказательство. Так как гипотезы 77р Н2..........Нп обра- зуют полную группу, то событие А может появиться только в ком- бинации с какой-либо из этих гипотез: А = Н1А + Н2А+ ... +НпА. Так как гипотезы Hv Н2......Нп несовместны, то и комбинации НХА, Н2А.....НпА также несовместны; применяя к ним теорему сложения, получим: п Р (А) = Р (HlА) + Р (Н2Л) + ... 4- Р (НпА) = 2 Р (Н1 А); z=i Применяя к событию HtA теорему умножения, получим: Р(А)=2Р(Я/)Р(А|Я/), 4 = 1 что и требовалось доказать. Пример 1. Имеются три одинаковые на вид урны; в первой урне два белых и один черный шар; во второй — три белых и один черный; в третьей — два белых и два черных шара. Некто выбирает наугад одну из урн и выни- мает из нее шар. Найти вероятность того, что этот шар белый. Решение. Рассмотрим три гипотезы: Hi — выбор первой урны, Н2~ выбор второй урны, Н3 — выбор третьей урны и событие А — появление белого шара.
3.4] ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ 55 Так как гипотезы, по условию задачи, равновозможны, то Р(/71) = Р(//2) = Р(//3) = 1. Условные вероятности события А при этих гипотезах соответственно равны: Р(Л|Я1) = |; P(4|/72) = |; Р(Л|Я3) = 4* По формуле полной вероятности Р<А}_.1.2+±.3+±.1_ 23 з+з 4 Н- з 2 36 • Пример 2. По самолету производится три одиночных выстрела. Ве- роятность попадания при первом выстреле равна 0,4, при втором — 0,5, при третьем — 0,7. Для вывода самолета из строя заведомо достаточно трех по- паданий; при одном попадании самолет выходит из строя с вероятностью 0,2, при двух попаданиях с вероятностью 0,6. Найти вероятность того, что в ре- зультате трех выстрелов самолет будет выведен из строя. Решение. Рассмотрим четыре гипотезы: Яо— в самолет не попало ни одного снаряда, — в самолет попал один снаряд, Н2— в самолет попало два снаряда, Н3— в самолет попало три снаряда. Пользуясь теоремами сложения и умножения, найдем вероятности этих гипотез: р (HQ) = 0,6 • 0,5 • 0,3 = 0,09; Р (И.) = 0,4 • 0,5 • 0,3 + 0,6 • 0,5 • 0,3 + 0,6 • 0,5 • 0,7 = 0,36; р (Н2) = 0,6 • 0,5 • 0,7 + 0,4 • 0,5 • 0,7 + 0,4 • 0,5 • 0,3 = 0,41; Р (7/3) = 0,4 • 0,5 • 0,7 = 0,14. Условные вероятности события А (выход самолета из строя) при этих гипотезах равны: Р(А\Но) = О;. P(A\Hi) = 0t 2; Р (А | Н2) = 0,6; Р (Я | 7/3) = 1,0. Применяя формулу полной вероятности, получим: Р(А)^Р{Но)Р(А\Но) + Р(Нх)Р(А\Н.) + Р(Н2)Р(А\Н2) + + Р (Я3) Р (А I Н3) = 0,36 • 0,2 + 0,41 • 0,6 + 0,14 • 1,0 = 0,458. Заметим, что первую гипотезу Но можно было бы не вводить в рас- смотрение, так как соответствующий член в формуле полной вероятности обращается в нуль. Так обычно и поступают при применении формулы пол- ной вероятности, рассматривая не полную группу несовместных гипотез, а только те из них, при которых данное событие возможно. Пример 3. Работа двигателя контролируется двумя регуляторами. Рассматривается определенный период времени t, в течение которого жела- тельно обеспечить безотказную работу двигателя. При наличии обоих регу- ляторов двигатель отказывает с вероятностью ^Ь2, при работе только пер- вого из них — с вероятностью при работе только второго — с вероят- ностью q2t при отказе обоих регуляторов — с вероятностью q0- Первый из регуляторов имеет надежность Plt второй — Р2. Все элементы выходят из строя независимо друг от друга. Найти полную надежность (вероятность безотказной работы) двигателя.
56 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 Решение. Рассмотрим гипотезы: Hi, 2— работают оба регулятора, А —работает только первый регулятор (второй вышел из строя), А —работает только второй регулятор (первый вышел из строя), А —оба регулятора вышли из строя и событие А «я- безотказная работа двигателя. Вероятности гипотез равны: Р (А, 2) = Р{Р2; Р (А) = Р. (1 - А); Р (Я2) = Рг (1 Р (Яо) = (1 - Р.) (1 - Р2). Условные вероятности события А при этих гипотезах заданы: Р(Л|Я1>2) = 1-?1,2; Р(Л|Я,) = 1-?1; Р(Л|Я2)=1-?2; ' Р(Л|Я0) = 1-?0. По формуле полной вероятности получим: Р (Л) = Р^2 (1 - qlt 2) + Рх (1 - А) (1 - *) + + А (I - А) (1 - ?2) + (I - А) (1 - А) (1 - <7о)- 3.5. Теорема гипотез (формула Бейеса) Следствием теоремы умножения и формулы полной вероятности является так называемая теорема гипотез» или формула Бейеса. Поставим следующую задачу. Имеется полная группа несовместных гипотез Hv Н2.......Нп. Вероятности этих гипотез до опыта известны и равны соответственно Р(Н^)» ....Р(Н^- Произведен опыт, в результате которого наблюдено появление некоторого события А. Спрашивается, как сле- дует изменить вероятности гипотез в связи с появлением этого со- бытия? Здесь, по существу, речь идет о том, чтобы найти условную вероятность Р (Н11 Л) для каждой гипотезы. Из теоремы умножения имеем: Р(ДЯ<)^Р(Л)Р(Я<|Л) = Р(Н/)Р(Л|Я/) (/«1, 2, .... п), или, отбрасывая левую часть, Р(А)Р(Н1\А) = Р(Н1)Р(А\Н1) (/«1, 2...........я), откуда р (Н( |Л) = Р^рР^\^й. (/=1,2...........я). Выражая P(Aj с помощью формулы полной вероятности (3.4.1), имеем: P(Hi\A) = пРР(Л 1 (/=1, 2......я). (3.5.1) 2 PMiPlAlHi)
3 5] ТЕОРЕМА ГИПОТЕЗ (ФОРМУЛА БЕЙЕСА) 57 Формула (3.5.1) и носит название формулы Бейеса или тео- ремы гипотез. Пример 1. Прибор может собираться из высококачественных деталей и из деталей обычного качества; вообще около 40% приборов собирается из высококачественных деталей. Если прибор собран из высококачественных де- талей, его надежность (вероятность безотказной работы) за время t равна 0,95; если из деталей обычного качества — его надежность равна 0,7. Прибор испытывался в течение времени t и работал безотказно. Найти вероятность того, что он собран из высококачественных деталей. Решение. Возможны две гипотезы: Hi — прибор собран из высококачественных деталей, Н2— прибор собран из деталей обычного качества. Вероятности этих гипотез до опыта: Р(Я1) = 0,4; P(tf2) = 0,6. В результате опыта наблюдено событие А — прибор безотказно работал время t. Условные вероятности этого события при гипотезах Hi и Н2 равны: Р (А | Hi) = 0,95; Р (Л | Н2) = 0,7. По формуле (3.5.1) находим вероятность гипотезы Ht после опыта: 0,4-0,95 0,4-0,95 4-0,6-0,6 “ °’475’ Пример 2. Два стрелка независимо один от другого стреляют по одной мишени, делая каждый по одному выстрелу. Вероятность попадания в мишень для первого стрелка 0,8, для второго 0,4. После стрельбы в мишени обнаружена одна пробоина. Найти вероятность того, что эта пробоина при- надлежит первому стрелку. Решение. До опыта возможны следующие гипотезы: Нх — ни первый, ни второй стрелок не попадет, Н2 — оба стрелка попадут, /73— первый стрелок попадет, а второй не попадет, Нк — первый стрелок не попадет, а второй попадет. Вероятности этих гипотез: р (Hi) = 0,2.0,6 = 0,12; р (Н2) = 0,8 • 0,4 = 0,32; Р(Н3) = 0,8-0,6 = 0,48; Р (//4) = 0,2 • 0,4 = 0,08. Условные вероятности наблюденного события А при этих гипотезах равны: P(A\Hi) = 0; Р(Л|Н2) = 0; Р(Л|#3) = 1; Р(Л|Я4) = 1. После опыта гипотезы Н{ и Н2 становятся невозможными, а вероят- ности гипотез Н3 и Н4 будут равны: Р(Н\Д\- °’48*1 -6. °’081 -1 0,48-1 + 0,08.1 ~ 7 ’ 0,48-1+0,08-1 ~ 7 *
58 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 Следовательно, вероятность того, что пробоина принадлежит первому 6 стрелку, равна у. Пример 3. Производится наблюдение за некоторым объектом с по- мощью двух наблюдательных станций. Объект может находиться в двух различных состояниях Si и S2, случайно переходя из одного в другое. Долговременной практикой установлено, что примерно 30% времени объект находится в состоянии Sb а 70%—в состоянии S2. Наблюдательная стан- ция № 1 передает ошибочные сведения приблизительно в 2% всех случаев, а наблюдательная станция № 2 — в 8%. В какой-то момент времени наблюдательная станция Ха 1 сообщила: объект находится в состоянии Slt а наблюдательная станция № 2: объект находится в состоянии S2. Спрашивается: какому из сообщений следует верить? Решение. Естественно верить тому из сообщений, для которого больше вероятность того, что оно соответствует истине. Применим формулу Бейеса. Для этого сделаем гипотезы о состоянии объекта: Hi — объект находится в состоянии Sb Н2— объект находится в состоянии S2. Наблюденное событие А состоит в следующем: станция № 1 сообщила, что объект находится в состоянии Sb а станция № 2 — что он находится в состоянии S2. Вероятности гипотез до опыта Р(Я1) = 0,3; Р(Я2) = 0,7. Найдем условные вероятности наблюденного события А при этих гипо- тезах. При гипотезе Hit чтобы произошло событие А, нужно, чтобы первая станция передала верное сообщение, а вторая — ошибочное: Р (А | Нх) = 0,98- 0,08 = 0,0784. Р (А | Н2) = 0,92 • 0,02 = 0,0184. Аналогично Применяя формулу Бейеса, найдем вероятность того, что истинное состояние объекта — Sf. Р(Н I ___________0’3 ~ о Q45 н | А) - 0 3 0>0784 0>7 ф 0 0184 - «,040, т. е. из двух переданных сообщений более правдоподобным является сооб- щение первой станции.
ГЛАВА 4 ПОВТОРЕНИЕ ОПЫТОВ 4.1. Частная теорема о повторении опытов • При практическом применении теории вероятностей часто прихо- дится встречаться с задачами, в которых один и тот же опыт или аналогичные опыты повторяются неоднократно. В результате каждого опыта может появиться или не появиться некоторое событие А, при- чем нас интересует не результат каждого отдельного опыта, а общее число появлений события А в результате серии опытов. Например, если производится группа выстрелов по одной и той же цели, нас, как правило, интересует не результат каждого выстрела, а общее число попаданий. В подобных задачах требуется уметь определять вероятность любого заданного числа появлений события в результате серии опытов. Такие задачи и будут рассмотрены в данной главе. Они решаются весьма просто в случае, когда опыты являются не- зависимыми. Несколько опытов называются независимыми, если вероятность того или иного исхода каждого из опытов не зависит от того, какие исходы имели другие опыты. Например, несколько последовательных бросаний монеты представляют собой независимые опыты. Несколько последовательных выниманий карты из колоды представляют собой независимые опыты при условии, что вынутая карта каждый раз воз- вращается в колоду и карты перемешиваются; в противном случае это — зависимые опыты. Несколько выстрелов представляют собой независимые опыты только в случае, если прицеливание производится заново перед каждым выстрелом; в случае, когда прицеливание про- изводится один раз перед всей стрельбой или непрерывно осуще- ствляется в. процессе стрельбы (стрельба очередью, бомбометание серией) выстрелы представляют собой зависимые опыты. Независимые опыты могут производиться в одинаковых или раз- личных условиях. В первом случае вероятность события А во всех опытах одна и та же. Во втором случае вероятность события А от опыта к опыту меняется. К первому случаю относится частная теорема, а ко второму — общая теорема о повторении опытов.
60 ПОВТОРЕНИЕ ОПЫТОВ [ГЛ. 4 Мы начнем с частной теоремы, как более элементарной. Прежде всего рассмотрим конкретный пример. Пример. Производится три независимых выстрела по мишени, вероят- ность попадания в которую при каждом выстреле равна р. Найти вероят- ность того, что при этих трех выстрелах мы получим ровно два попадания. Решение. Обозначим В2 событие, состоящее в том, что в мишень попадет ровно два снаряда. Это событие может произойти тремя способами: 1) попадание при первом выстреле, попадание при втором, промах при третьем; 2) попадание при первом выстреле, промах при втором, попадание при третьем; 3) промах при первом выстреле, попадание при втором, попадание при третьем. Следовательно, событие В2 можно представить как сумму произведений событий: В2 = Л! Л2Л3 Л| Л2Л3 А\Л2Л3, где Ль Лг, Л^—попадание при первом, втором, третьем выстрелах соответ- ственно, Ль Л2, Л3 — промах при первом, втором, третьем выстрелах. Учитывая, что три перечисленных варианта события В2 несовместны, а события, входящие в произведения, независимы, по теоремам сложения и умножения получим: р (Вг) = РР О — Р) + Р (1 — Р) Р +(1 — р) РР> или, обозначая 1 — р = q, Р(В2) = 3^. Аналогичным образом, перечисляя все возможные варианты, в ко- торых интересующее нас событие может появиться заданное число раз, можно решить и следующую общую задачу. Производится п независимых опытов, в каждом из которых может появиться или не появиться некоторое событие Л; вероятность появле- ния события А в каждом опыте равна р. а вероятность непоявления q=l—р. Требуется найти вероятность Pmt п того, что событие А в этих п опытах появится ровно т раз. Рассмотрим событие Вт, состоящее в том, что событие А появится в п опытах ровно т раз. Это событие может осуществиться различ- ными способами. Разложим событие Вт на сумму произведений собы- тий, состоящих в появлении или непоявлении события А в отдельном опыте. Будем обозначать At появление события А в Z-м опыте; At— непоявление события А в /-м Опыте. Очевидно, каждый вариант появления события Вт (каждый член суммы) должен состоять из т появлений события Л и п—т непо- явлений, т. е. из т событий А и п — т событий А с различными индексами. Таким образом, = А1А2 ... АтАт+1 ... Ап -J- ... ♦ ♦ • + AXA2A3 ... A,_j^n Ч- ... . Ая_тАа_т+1 ... Ая,
4.2] ОБЩАЯ ТЕОРЕМА О ПОВТОРЕНИИ ОПЫТОВ . 61 причем в каждое произведение событие А должно входить т раз, а А должно входить п — т раз. Число всех комбинаций такого рода равно С™, т. е. числу спо- собов,'какими можно из п опытов выбрать /п, в которых произошло событие А. Вероятность каждой такой комбинации, по теореме умно- жения для независимых событий, равна pmqn~m. Так как комбинации между собой несовместны, то, по теореме сложения, вероятность события Вт равна Рт, „ = + • • • ~гР Ч = СпР ч С™ раз Таким образом, мы можем дать следующую формулировку частной теоремы о повторении опытов. Если производится п независимых опытов, в каждом из которых событие А появляется с вероятностью р, то вероятность того, что событие А появится ровно т раз, выражается формулой (4.1.1) где q = 1 —р. Формула (4.1.1) описывает, как распределяются вероятности между возможными значениями некоторой случайной величины—числа по- явлений события А при п опытах. В связи с тем, что вероятности Рт,п по форме представляют со- бой члены разложения бинома (^ + р)Л, распределение вероятностей вида (4.1.1) называется биномиальным распределением. 4.2. Общая теорема о повторении опытов Частная теорема о повторении опытов касается того случая^ когда вероятность события А во всех опытах одна и та же. На практике часто приходится встречаться с более сложным случаем, когда опыты производятся в неодинаковых условиях, и вероятность события от опыта к опыту меняется. Например, если производится ряд выстрелов в переменных условиях (скажем, при изменяющейся дальности), то вероятность попадания от выстрела к выстрелу может заметно меняться. Способ вычисления вероятности заданного числа появлений собы- тия в таких условиях дает общая теорема о повторении опытов. Пусть производится п независимых опытов, в каждом из которых может появиться или не появиться некоторое событие Л, причем вероятность появления события А в Z-м опыте равна рг а вероят- ность непоявления qi=l—pL(l =lt п). Требуется найти веро- ятность PmtJl того, что в результате п опытов событие А появится ровно т раз.\
62 ПОВТОРЕНИЕ ОПЫТОВ [ГЛ. 4 Обозначим по-прежнему Вт событие, состоящее в том, что собы- тие А появится т раз в п опытах. По-прежнему представим Вт как сумму произведений элементарных событий: = ^1^2 • • • АтАт+1 • * • Ап • • • • • • 4“ >М2Л3 • • • ^л-1 Ап + • • • ••• +^1Л2 ••• ^л-т^л-т+1 ••• Ап* причем в каждое из произведений событие А входит т раз, событие А п— т раз.' Число таких комбинаций по-прежнему будет С™, но сами комбинации между собой будут уже неравновероятны. Применяя теорему сложения и теорему умножения для независи- мых событий, получим: ^т, п == Р\Р2 • • • РтЧт+Х • • • Чп 4" • • • ••• Ч-Р1?2Рз ••• Чп-хРп+ • • • 4" Ч\Чъ • • • Чп-тРп~т+\ • • • Рп* т. е. искомая вероятность равна сумме всех возможных произведений, в которые буквы р с разными индексами входят т раз, а буквы q с разными индексами п— т раз. Для того чтобы чисто механически составлять все возможные произведения из т букв р и п— tn букв q с разными индексами, применим следующий формальный прием. Составим произведение п биномов: • СО = (71 + Р1О (?2 + PlZ> • ••(?« + Pnz} или короче <Ря(О = П(71 + лО. Z = 1 где z — произвольный параметр. Зададимся целью найти в этом произведении биномов коэффи- циент при zm: Для этого перемножим биномы и произведем приве- дение подобных членов. Очевидно, каждый член, содержащий zm. будет иметь в качестве коэффициента произведение т букв р с какими-то индексами и п— т букв q, а после приведения подоб- ных членов коэффициент при zm будет представлять собой сумму всех возможных произведений такого типа. Следовательно, способ составления этого коэффициента полностью совпадает со способом вычисления вероятности Pmt п в задаче о повторении опытов. Функция <рл(г), разложение которой по степеням параметра z дает в качестве коэффициентов вероятности Pmt п, называется про- " изводящей функцией вероятностей Рт,п или просто производя* щей функцией.
4,2] ОБЩАЯ ТЕОРЕМА О ПОВТОРЕНИИ ОПЫТОВ 63 Пользуясь понятием производящей функции, можно сформулиро- вать общую теорему о повторении опытов в следующем виде. Вероятность того, что событие А в п независимых опытах поя- вится ровно tn раз, равна коэффициенту при zm в выражении произ- водящей функции: О) =П(?/+ />/*)• i = l где — вероятность появления события А в Z-м опыте, ^ = 1— pt. Вышеприведенная формулировка общей теоремы о повторении опытов в отличие от частной теоремы не дает явного выражения для вероятности Рт,п* Такое выражение в принципе написать можно, но оно является слишком сложным, и мы не будем его приводить. Однако, не прибегая к такому явному выражению, все же можно записать общую теорему о повторении опытов в виде одной формулы: п п П(^ + ^) = 2^,пг'п. (4.2.1) Z=1 m=0 Левая и правая части равенства (4.2.1) представляют собою одну и ту же производящую функцию срДг), только слева она написана в виде одночлена, а справа — в виде многочлена. Раскрывая скобки в левой части и выполняя приведение подобных членов, получим все вероятности: р р р г0, я» Ч. я» •••» *я, я как коэффициенты соответственно при нулевой, первой и т. д. сте* пенях z. Очевидно, частная теорема о повторении опытов вытекает из общей при Pi — Рч = • • • = Рп = Р* В этом случае производящая функция обращается в n-ю степень бинома (? + pz)i <?a<z)=(q+pz)n. Раскрывая это выражение по формуле бинома, имеем: я (q + pz)tt= ^CHpmqn-mzm, m=.Q откуда следует формула (4.1.1).
64 ПОВТОРЕНИЕ ОПЫТОВ [ГЛ. 4 Отметим, что как в общем, так и в частном случае сумма всех вероятностей Рш>д равна единице: п ^Рт,п = \. (4.2.2) т = 0 Это следует прежде всего из того, что события Во, Вг, .... Вп образуют полную группу несовместных событий. Формально к равен- ству (4.2.2) можно придти, полагая в общей формуле (4.2.1) z = \. Во многих случаях практики, кроме вероятности Pmt п ровно тп появлений события А, приходится рассматривать вероятность н е менее т появлений события А. Обозначим Ст событие, состоящее в том, что событие А поя- вится не менее т раз, а вероятность события Ст обозначим Rm,n* Очевидно, Ст — Вт + Вт + \+ ••• откуда, по теореме сложения, Rm, п Рщ. п Рт + \, п 4“ * • • Н" P/i, п* или короче п (4.2.3) I = т При вычислении Rmtft часто бывает удобнее не пользоваться не- посредственно формулой (4.2.3), а переходить к противоположному событию и вычислять вероятность Rmtft по формуле т-1 Лт>я = 1-2Р/>Я. (4.2.4) z=o Пример 1. Производится 4 независимых выстрела по одной и той же цели с различных расстояний; вероятности попадания при этих выстрелах равны соответственно рх = 0,1; = 0,2; ж 0,3; р4 ® 0,4. Найти вероятности ни одного, одного, двух, трех и четырех попаданий: Р0,4» ^1,4» Pi,4» Рзг4» р4А* Решение. Составляем производящую функцию: 4 Z=1 == (0,9 + 0,Ь) (0,8 + 0,2z) (0,7 + 0,3г) (0,6 + 0,4z) « **0,302 4- 0,440z 4- 0,215г8 +0,040га + 0,002г*, откуда Р0,4 = 0,302; Рм*= 0,440; P2t4_ 0,215г Р9,0,040; • Р4;<«0>002.
<2] ОБЩАЯ ТЕОРЕМА О ПОВТОРЕНИИ ОПЫТОВ 65 Пример 2. Производится 4 независимых выстрела в одинаковых усло- виях, причем вероятность попадания р есть средняя из вероятностей p2i р3, р4 предыдущего примера: Р ~ "4 (A + Рз + Рз + А) = 0>25. Найти вероятности Р0,4» ^l,4i Р 2,4l Р 3,4» Р4,4* Решение. По формуле (4.1.1) имеем: Р0}4 = 04 __ 0,316; *M=<W=0,421; Р2>4 = фУ = 0,211; />з,4 = ф3<7 = 0,047; Р4>4 = р* = 0,004. Пример 3. Имеется 5 станций, с которыми поддерживается связь. Время от времени связь прерывается из-за атмосферных помех. Вследствие удаленности станций перерыв друг от друга связи с каждой из них происхо- дит независимо от остальных с вероятностью р = 0,2. Найти вероятность того, что в данный момент времени будет иметься связь не более чем с двумя станциями. Решение. Событие, о котором идет речь, сводится к тому, что будет нарушена связь не менее чем с тремя станциями. По формуле (4.2.3) получим: *3,5 = *3,5 + *4,5 + *5,5 = С5 • 0.23 • 0,82 + С* • 0.24.0,8 + 0.25 = = 0,0512 + 0,0064 + 0,0003 = 0,0579. Пример 4. Система радиолокационных станций ведет наблюдение за группой объектов, состоящей из 10 единиц. Каждый из объектов может быть (независимо от других) потерян с вероятностью 0,1. Найти вероят- ность того, что хотя бы один из объектов будет потерян. Решение. Вероятность потери хотя бы одного объекта можно было бы найти по формуле ^1,10 = ^1,10 + ^2,10+ ••• +^10,10» но несравненно проще воспользоваться вероятностью противоположного со- бытия — ни один объект не потерян — и вычесть*ее из единицы: Я1>10 = 1 - р0>10 = 1 - 0,9^ ~ о,65. - Пример 5. Прибор состоит из 8 однородных элементов, но может работать при наличии в исправном состоянии не менее 6 из них. Каждый из элементов за время работы прибора t выходит из строя независимо от других с вероятностью 0,2. Найти вероятность того, что прибор откажет за время t. Решение. Для отказа прибора требуется выход из- строя не менее двух из восьми элементов. По формуле (4.2.4) имеем: *2,8 = 1 - (*о,8 + *1>8) = 1 - (0,88 + • 0,2 - 0,в7) « 0,497. Пример 6. Производится 4 независимых выстрела с самолета по са- молету. Вероятность попадания при каждом выстреле равна 0,3. Для 5-3015
66 ПОВТОРЕНИЕ ОПЫТОВ [ГЛ 4 поражения (выхода из строя) самолета заведомо достаточно двух попаданий; при одном попадании самолет поражается с вероятностью ОД Найти вероят- ность того, что самолет будет поражен. Решение. Задача решается по формуле полной вероятности. Можно было бы рассмотреть гипотезы //] — в самолет попал 1 снаряд, Н2— в самолет попало 2 снаряда, Hz — в- самолет попало 3 снаряда, Н4 —в самолет попало 4 снаряда и находить вероятность события А — поражения самолета — с помощью этих четырех гипотез. Однако значительно проще рассмотреть всего две гипотезы: Hq — в самолет не попало ни одного снаряда, Нх — в самолет попал 1 снаряд, и вычислять вероятность события А — непоражения самолета: Р (А) = Р (Но) Р (А | Но) + Р (Н,)Р(А | НО. Имеем; р (Но) = Ро,4 « 0,74 = 0,240; Р (Нх) = Р14 =' С\ • 0,3 • 0,73 = 0,412; Р(Л|//0) = 1; Р(А\Н1)=1— 0,6 = 0,4. Следовательно, _ Р (Я) == 0,240 + 0,412 • 0,4 « 0,405, откуда Р (Л) = 1—0,405 = 0,595.
ГЛАВА 5 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ 5.1. Ряд распределения. Многоугольник распределения В разделе курса, посвященном основным понятиям теории вероят- ностей, мы уже ввели в рассмотрение чрезвычайно важное понятие случайной величины. Здесь мы дадим дальнейшее развитие этого понятия и укажем способы, с помощью которых случайные величины могут быть Описаны и характеризованы. Как уже было сказано, случайной величиной называется величина, которая в результате опыта может принять то или иное значение, неизвестно заранее — какое именно. Мы условились также различать случайные величины прерывного (дискретного) и непрерывного типа. Возможные значения прерывных величин могут быть заранее перечислены. Возможные значения непрерывных величин не могут быть заранее перечислены и непрерывно заполняют некоторый про- межуток. Примеры прерывных случайных величин: 1) число появлений герба при трех бросаниях монеты (возможные значения 0, 1.2, 3); 2) частота появления герба в том же опыте (возможные значе- ния 0, 1); о о / 3) число отказавших элементов в приборе, состоящем из пяти элементов (возможные значения 0, 1, 2, 3, 4, 5); 4) число попаданий в самолет, достаточное для вывода его из строя (возможные значения 1, 2, 3...п, ...); 5) число самолетов, сбитых в воздушном бою (возможные зна- чения 0, 1, 2, ..., N, где М—общее число самолетов, участвую- щих в бою). Примеры непрерывных случайных величин: 1) абсцисса (ордината) точки попадания при выстреле; 2) расстояние от точки попадания до центра мишени; 3) ошибка измерителя высоты; 4) время безотказной работы радиолампы.
68 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 Условимся в дальнейшем случайные величины обозначать боль- шими буквами, а их возможные значения — соответствующими малыми буквами. Например,.X — число попаданий при трех выстрелах; воз- можные значения: Xj = 0; х2 — 1; х3 = 2; х4 = 3. Рассмотрим прерывную случайную величину X с возможными зна- чениями хр х2, .... хл. Каждое из этих значений возможно, но не достоверно, и величина X может принять каждое из них с некото- рой вероятностью. В результате опыта величина X примет одно из этих значений, т. е. произойдет одно из полной группы несовмест- ных событий: Лг = х1, Х = х2, (5.1.1) п Обозначим вероятности этих событий буквами р с соответствую- щими индексами: Р{Х = х,) = Ру Р(Х = х^) — р2; Р(Х — Ха) — ря. Так как несовместные события (5.1.1) образуют полную группу, то • Sa=i. Z = 1 т. е. сумма вероятностей всех возможных значений случайной вели- чины равна единице. Эта суммарная вероятность каким-то образом распределена между отдельными значениями. Случайная величина будет полностью описана с вероятностной точки зрения, если мы зададим это распределение, т. е. в точности укажем, какой вероят- ностью обладает каждое из событий (5.1.1). Этим мы установим так называемый закон распределения случайной величины. Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями. Про слу- чайную величину мы будем говорить, что она подчинена данному закону распределения. Установим форму, в которой может быть задан закон распреде- ления прерывной случайной величины X. Простейшей формой зада- ния этого закона является таблица, в которой перечислены возмож- ные значения случайной величины и соответствующие им вероятности:
6J] РЯД РАСПРЕДЕЛЕНИЯ. МНОГОУГОЛЬНИК РАСПРЕДЕЛЕНИЯ 69 Такую таблицу мы будем называть рядом распределения слу- чайной величины X. Чтобы придать ряду распределения более наглядный вид, часто прибегают к его. графическому изображению: по оси Абсцисс отклады- ваются возможные значения случайной величины, а по оси ординат — вероятности этих значений. Для наглядности полученные точки со- единяются отрезками прямых. Такая фигура называется многоуголь- ником распределения (рис. 5.1.1). Многоугольник распределения, так же как и ряд распределения, полностью характеризует случай- ную величину; он является одной из форм закона распреде- ления. Иногда удобной оказывается так называемая «механическая» интер- претация ряда распределения. Представим себе, что некоторая масса, равная единице, распределена по оси абсцисс так, что в п отдельных точках хр х2, .... хп сосредоточены соответственно массы р2, • • •» Р п* Тогда ряд распределения интерпретируется как система материальных точек с какими-то массами, расположенных на оси абсцисс. Рассмотрим несколько примеров прерывных случайных величин с их законами распределения. Пример 1. Производится один опыт, в котором может появиться или не появиться событие А. Вероятность события А равна 0,3. Рассматривается случайная величина X — число появлений события А в данном опыте (т. е. характеристическая случайная величина события А, принимающая значение I, если оно появится, и 0, если не появится). Построить ряд распределения и многоугольник распределения величины X.
70 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ (ГЛ. 5 Решение. Величина X имеет всего два значения; 0 и 1. Ряд распре- деления величины X имеет вид: Xi 0 1 Pi 0,7 0,3 Многоугольник распределения изображен на рис. 5.1.2. Пример 2. Стрелок производит три вы- стрела по мишени. Вероятность попадания в ми- шень при каждом выстреле равна 0,4. За каждое попадание стрелку засчитывается 5 очков. По- строить ряд распределения числа выбитых очков. Решение. Обозначим X число выбитых очков. Возможные значения величины X: х{ «=0; х25; = 10; х4 = 15. ч Вероятности этих значений находим по тео- реме о повторении опытов: Pl = 0.63 - 0,216; />2 = сз • О.4 • 0.62 = 0,432; • 0,42 • 0,6 = 0,288; = 0.43 -= 0,064. Ряд распределения величины X имеет вид: Xi 0 5 10 15 Pi 0,216 0,432 0,288 0,064 Многоугольник распределения изображен на рис. 5.1.3. Пример 3. Вероятность появления события А в равна р. Производится ряд незави- симых опытов, которые продол- жаются до первого появления собы- тия Л, после чего опыты прекра- щаются. Случайная величина X — число произведенных опытов. По- строить ряд распределения вели- чины X. Решение. Возможные значе- ния величины X: 1, 2, 3,... (теорети- чески они ничем не ограничены). Для того чтобы величина X приняла зна- чение 1, необходимо, чтобы событие А произошло в первом же опыте; ве- роятность етого равна р. Для того чтобы величина X приняла значе- ние 2, нужно, чтобы в первом опыте ром — появилось; вероятность этого равна qpt одном опыте событие А не появилось, а во вто- где ^«1— р, и т. д. Ряд
8.1] РЯД РАСПРЕДЕЛЕНИЯ. МНОГОУГОЛЬНИК РАСПРЕДЕЛЕНИЯ 71 Первые пять ординат многоугольника распределения для случая р = я = 0,5 показаны на рис. 5.1.4. Пример 4. Стрелок ведет стрельбу по мишени до первого попадания, имея боезапас 4 патрона. Вероятность попадания при каждом выстреле равна 0,6. Построить ряд распределения боезапаса, оставшегося неизрасхо- дованным. Решение. Случайная величина X — число неизрасходованных патро- нов — имеет четыре возможных значения: 0, 1, 2 и 3. Вероятности этих зна- чений равны соответственно: - р0 = 0,43 = 0,064; pj = 0.42 • 0,6 = 0,096; Pi 0,4 • 0,6 = 0,240; 0,600. Ряд распределения величины X имеет вид: xi Pi 0 12 3 0,064 0,096 0,240 0,600 Многоугольник распределения показан на рис. 5.1.5.
72 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ (ГЛ. $ Пример 5. Техническое устройство может применяться в различных условиях и в зависимости от этого время от времени требует регулировки. При однократном применении устройства оно может случайным образом попасть в благоприятный или неблагоприятный режим. В благоприятном режиме устройство выдерживает три применения без регулировки; перед четвертым его приходится регулировать. В неблагоприятном режиме устрой- ство прихрдится ]---------- -------------------------- ~ регулировать после первого же применения. Вероятность - того, что устройство попадает в бла- гоприятный режим, — 0,7, что в не- благоприятный, — 0,3. Рассматри- вается случайная величина X — число применений устройства до регули- ровки. Построить ее ряд распреде- ления. Решение. Случайная вели- чина X имеет три возможных значе- ния: 1, 2 и 3. Вероятность того, что X = 1, равна вероятности того, что при первом же применении устрой- ство попадет в неблагоприятный ре- жим, т. е. pi = 0,3. Для того чтобы величина X приняла значение 2, нужно, чтобы при первом применении устройство попало в благоприятный режим, а при втором — в неблаго- приятный; вероятность этого Ра = = 0,7 * 0,3 = 0,21. Чтобы величина X приняла значение 3, нужно, чтобы два первых раза устройство попало в благоприятный режим (после третьего раза его все равно придется регулировать). Вероятность этого равна р3 == 0,72 = 0,49. Ряд распределения величины X имеет вид: *1 1 2 3 Pl 0,30 0,21 0,49 Многоугольник распределения показан на рис. 5.1.6. 5,2. Функция распределения В предыдущем п° мы ввели в рассмотрение ряд распределения как исчерпывающую характеристику (закон распределения) прерыв- ной случайной величины. Однако эта характеристика не является универсальной; она существует только для прерывных случайных величин. Нетрудно убедиться, что для непрерывной случайной вели- чины такой характеристики построить нельзя. Действительно, непре- рывная случайная величина имеет бесчисленное множество возмож- ных значений, сплошь заполняющих некоторый промежуток (так назы- ваемое «несчетное множество»). Составить таблицу, в которой были бы перечислены все возможные значения такой случайной величины, не-
5.21 ' ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 73 возможно. Кроме того, как мы увидим в дальнейшем, каждое отдель- ное значение непрерывной случайной величины обычно не обладает никакой отличной от нуля вероятностью. Следовательно, для непре- рывной случайной величины не существует ряда распределения в том смысле, в каком он существует для прерывной величины. Однако различные области возможных значений случайной величины все же не являются одинаково вероятными, и для непрерывной величины существует «распределение вероятностей», хотя и не в том смысле, как для прерывной. Для количественной характеристики этого распределения вероят- ностей удобно воспользоваться не вероятностью события X = х. а вероятностью события X < х, где х — некоторая текущая пере- менная. Вероятность этого события, очевидно, ^ависит от х, есть некоторая функция от х. Эта функция называется функцией рас- пределения случайной величины X и обозначается F(x): F(x) = P(^<x). (5.2.1) Функцию распределения F (х) иногда называют также интеграль- ной функцией распределения или интегральным законом рас- пределения. Функция распределения — самая универсальная характеристика случайной величины. Она существует для всех случайных величин: как прерывных, так и непрерывных. Функция распределения пол- ностью характеризует случайную величину с вероятностной точки зрения, т. е. является одной из форм закона распределения. Сформулируем некоторые общие свойства функций распре- деления. 1. Функция распределения F(x) есть неубывающая функция своего аргумента, т. е. при х2 > xt F(x2) F(x1). 2. На минус бесконечности функция распределения равна нулю: F (— оо) = 0. 3. На плюс бесконечности ----------i-. •---«---------х функция распределения равна ° * х единице: Рис. 5.2.1. Г (+ сю) = 1. Не давая строгого доказательства этих свойств, проиллюстрируем их с помощью наглядной геометрической интерпретации. Для этого будем рассматривать случайную величину X как случайную точку X на оси Ох (рис. 5.2.1), которая в результате опыта может занять то или иное положение. Тогда функция распределения F (х) есть вероятность того, что случайная точка X в результате опыта попадет левее точки х. Будем увеличивать х, т. е. перемещать точку х вправо по оси абсцисс. Очевидно, при этом вероятность того, что случайная точка X
74 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 попадет левее х, не может уменьшиться; следовательно, функция распределения F(x) с возрастанием х убывать не . может. Чтобы убедиться в том, что F(—оо) = 0, будем неограниченно перемещать точку х влево по оси абсцисс. При этом попадание слу- чайной точки X левее х в пределе становится невозможным собы- тием; естественно полагать, что вероятность этого события стремится к нулю, т. е. F(—оо) = 0. Аналогичным образом, неограниченно перемещая точку х вправо, убеждаемся, что Ff-j-oo) = 1, так как событие X < х становится в пределе достоверным. График функции распределения F (х) в общем случае представляет собой график неубывающей функции (рис. 5.2.2), значения которой начинаются от 0 и доходят до 1, причем в отдельных точках функция может иметь скачки (разрывы). Зная ряд распределения прерывной случайной вели- чины, можно легко построить функцию распределения этой величины. Действительно, F(x) = P(X <х) = = 2 р (*=*/)• < X где неравенство xt < х под знаком суммы указывает, что суммирование распространяется на все те значения хр которые меньше х. Когда текущая переменная х проходит через какое-нибудь из возможных значений прерывной величины X, функция распределения меняется скачкообразно, причем величина скачка равна вероятности этого значения. Пример 1. Производится один опыт, в котором может появиться или не появиться событие А. Вероятность события А равна 0,3. Случайная величина X—число появлений события А в опыте (характеристическая случайная величина события А). Построит^ ее функцию распределения. Решение. Ряд распределения величины X имеет вид: XI 0 1 Pi 0,7 | 0,3
ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 75 5.2) Построим функцию распределения величины X: 1) при х<0 /7(х) = Р(Х<л) = 0; 2) при 0 < х < 1 F (х) = Р (X < х) = Р (X = 0) = 0,7; 3) при х > 1 /7(х) = Р(Х<х) = Р(Х = 0)4-Р(Л= 1) = 1. График функции распределения представлен на рис. 5.2.3. В точках раз- рыва функция F (х) принимает значения, отмеченные на чертеже точками (функция непрерывна слева). Fteb_______________________ I i --------1 _________11_________1_________ I х 0 1 2 3 Рис. 6.2.3, Пример. 2. В условиях предыдущего примера производится 4 неза- висимых опыта. Построить функцию распределения числа появлений события А. Решение. Обозначим X — число появлений события А в четырех опытах. Эта величина имеет ряд распределения *1 I 0 1 2 3 4 Pl j 0,2401 0,4116 0,2646 0,0756 0.0081 Построим функцию распределения случайной величины X; 1) при х<0 fW = 0; 2) при 0<л<1 f(x) = 0,2401; 3) при 1 < х<2 Л (х) = 0,6517; 4) при 2<х<3 F (х) = 0,9163; 5) при 3< х<4 F (х) = 0,9919; 6) при х > 4 График функции распределения представлен на рис. 5.2.4.
76 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 Функция распределения любой прерывной случайной величины всегда есть разрывная ступенчатая функция, скачки которой проис- ходят в точках, соответствующих возможным значениям случайной величины, и равны вероятностям этих значений. Сумма всех скачков функции F(x) равна единице. По мере увеличения числа возможных значений случайной вели- чины и уменьшения интервалов между ними число скачков становится больше, а сами скачки — меньше; ступенчатая кривая становится более плавной (рис. 5.2.5); случайная величина постепенно прибли- жается к непрерывной величине, а ее функция распределения — к не- прерывной функции (рис. 5.2.6). На практике обычно функция распределения непрерывной слу- чайной величины представляет собой функцию, непрерывную во всех
5.2] ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 77 точках, как это показано на рис. 5.2.6. Однако можно построить примеры случайных величин, возможные значения которых непрерывно заполняют некоторый промежуток, но для которых функция распре- деления не везде является^ непрерывной, а в отдельных точках терпит разрывы (рис. 5.2.7). Такие случайные величины называются смешан- ними. В качестве примера смешанной величины можно привести площадь разрушений, наносимых цели бомбой, радиус разрушитель- ного действия которой равен R (рис. 5.2.8). Значения этой случайной величины непрерывно заполняют промежуток от 0 до vR2, но при этом крайние значения промежутка 0 и к/?2, осуществляющиеся при положениях бомбы типа / и II, обладают определенной конечной вероятностью, и этим значениям соответствуют скачки функции рас- пределения, тогда как в промежуточных значениях (положение типа III) функция распределения непрерывна. Другой пример смешанной слу- чайной величины — время Т безотказной работы прибора, испыты- ваемого в течение времени /. Функция распределения этой случайной величины непрерывна всюду, кроме точки (.
78 случайные величины и их законы РАСПРЕДЕЛЕНИЯ (ГЛ. 5 5.3. Вероятность попадания случайной величины на заданный участок При решении практических задач, связанных со случайными вели- чинами, часто оказывается необходимым вычислять вероятность того, что случайная величина примет значение, заключенное в некоторых пределах, например от а ~до {3. Это событие мы будем называть «попаданием случайной величины X на участок от а до р». Условимся для определенности левый конец а включать в уча- сток (а, Р), а правый — не включать. Тогда попадание случайной величины X на участок (а, р) равносильно выполнению неравенства: «<* < Выразим вероятность этого события через функцию распределения величины X. Для этого рассмотрим три события: событие А, состоящее в том, что X < {3; событие В, состоящее в том, что X < а; событие С, состоящее в том, что а С X < {3. Учитывая, что Д = В-]-С, по теореме сложения вероятностей имеем: Р(Х < Р) = Р(Х < а) + Р(а < X < Р), или F(p)=F(a)4-P(a<X<p), откуда Р (а < X < Р) = F (Р) — F (а), (5.3.1) т. е. вероятность попадания случайной величины на заданный участок равна приращению функции распределения на этом участке. Будем неограниченно уменьшать участок (а, р), полагая, что Р->а. В пределе вместо вероятности попадания на участок получим вероятность того, что величина примет отдельно взятое значение а: Р {X = а) = limР (а < X < Р) = lim [F (р) — F (а)]. (5.3.2) Р->а Р->а Значение этого предела зависит от того, непрерывна ли функ- ция F (х) в точке х = а или же терпит разрыв. Если в точке а функция F(x) имеет разрыв, то предел (5.3.2) равен значению скачка функции F(x) в точке а. Если же функция F(x) в точке а непре- рывна, то этот предел равен нулю. В дальнейшем изложении мы условимся называть «непрерывными» только те случайные величины, функция распределения которых везде непрерывна. Имея это в виду» можно сформулировать следующее положение:
5.3] ВЕРОЯТНОСТЬ ПОПАДАНИЯ НА ЗАДАННЫЙ УЧАСТОК 79 Вероятность любого отдельного значения непрерывной слу- чайной величины разно нулю. Остановимся на этом положении несколько подробнее. В данном курсе мы уже встречались с событиями, вероятности которых были равны нулю: это были невозможные события. Теперь мы видим, что обладать нулевой вероятностью могут не только невозможные, но и возможные события. Действительно, событие X === а, состоящее в том, что непрерывная случайная величина X примет значение а, возможно; однако вероятность его равна нулю. Такие события — возможные, но с нулевой вероятностью—появляются только при рассмотрении опытов, не сводящихся к схеме случаев. Понятие о событии «возможном, но обладающем нулевой вероят- ностью» кажется на первый взгляд парадоксальным. В действитель- ности оно не более парадоксально, чем представление о теле, имеющем определенную массу, тогда как ни одна из точек внутри тела опре- деленной конечной массой не обладает. Сколь угодно малый объем, выделенный из тела, обладает определенной конечной массой; эта масса приближается к нулю по мере уменьшения объема и в пределе равна нулю для точки. Аналогично* при непрерывном распределении вероятностей вероятность попадания' на сколь угодно малый участок может быть отлична от нуля, тогда как вероятность попадания в строго определенную точку в точности равна нулю. Если производится опыт, в котором непрерывная случайная вели- чина X должна принять одно из- своих возможных значений, то до опыта вероятность каждого из таких значений равна нулю; однако, в исходе опыта случайная величина X непременно примет одно из своих возможных значений, т. е. заведомо произойдет одно из собы- тий, вероятности которых были равны нулю. Из того, что событие Х = а имеет вероятность, равную нулю, вовсе не следует, что это событие не будет появляться, т. е. что частота этого события равна нулю. Мы знаем, что частота события при. большом числе опытов не равна, а только приближается к вероят- ности. Из того, что вероятность события Х = а равна нулю, следует только, что при неограниченном повторении опыта это событие будет появляться сколь угодно редко. Если событие А в данном опыте возможно, но имеет вероятность, равную нулю, то противоположное ему событие А имеет вероятность, равную единице, но не достоверно. Для непрерывной случайной величины X при любом а событие X а имеет вероятность, равную единице, однако это событие не достоверно. Такое событие при неограниченном Повторении опыта будет происходить почти всегда, но не всегда. В п°5.1 мы познакомились с «механической» интерпретацией прерывной случайной величины как распределения единичной массы, сосредоточенной в нескольких изолированных точках на оси абсцисс.
80 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ (ГЛ. 5 В случае непрерывной случайной величины механическая интерпре- тация сводится к распределению единичной массы не по отдельным точкам, а непрерывно по оси абсцисс, причем ни одна точка не обладает конечной массой. 5.4. Плотность распределения Пусть имеется непрерывная случайная величина X с функцией распределения F(x), которую мы предположим непрерывной и диф- ференцируемой. Вычислим вероятность попадания этой случайной величины на участок от х до х-|-Дх: Р(х < X < х-|-Дх) = F(x-|- Дх)— F(x), т. е. приращение функции распределения на этом участке. Рассмот- рим отношение этой вероятности к длине участка* т. е. среднюю вероятность, приходящуюся на единицу длины на этом участке, и будем приближать Дх к нулю. В пределе получим производ- ную от функции распределения: .. F(X-|-AX)---F(x) Е-/ / ч /Rjn hm —ь—!—_'--------— pf (х). (5.4.1) Да->0 Введем обозначение: /(x) = F'(x). (5.4.2) Функция f (х) — производная функции распределения — характе- ризует как бы плотность, с которой распределяются значения случайной величины в данной точке. Эта функция называется плот- но с шью распределения (иначе— «плотностью вероятности») непре- рывной случайной величины X. Иногда функцию /(х) называют также «дифференциальной функ- ЛххххххК цией распределения» или «диффе- ренциальным законом распределе- ния» величины X. Термины «плотность распреде- —х ления», «плотность вероятности» становятся особенно наглядными Рис. 5.4.1. при пользовании механической интерпретацией распределения; в этой интерпретации функция f (х) буквально характеризует плотность распределения масс по оси абсцисс (так называемую «линейную плотность»). Кривая, изображающая плотность распре- ' деления случайной величины, называется кривой распределения (рис. 5.4.1).
5.4] ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ 81 Плотность распределения, так же как и функция распределения, есть одна из форм закона распределения. В противоположность функции распределения эта форма не является универсальной: она существует только для непрерыв- ных случайных величин. Рассмотрим непрерывную слу- чайную величину X с плотностью распределения f (х) и элементар- ный участок dx. примыкающий к точке х (рис. 5.4.2). Вероят- ность попадания случайной вели- чины X на этот элементарный участок (с точностью до беско- нечно малых высшего порядка) равна f(x)dx. Величина f(x)dx называется элементом вероят- ности. Геометрически это есть площадь элементарного прямоугольника, опирающегося на отре- зок dx (рис. 5.4.2). Выразим вероятность попадания величины X на отрезок от а до р (рис. 5.4.3) через плотность распределения. Очевидно, она равна сумме элементов вероятности на всем этом участке, т. е. интегралу: fix} Рис. 5.4.3. Р(а <*<₽) = f /(x)dx1). (5.4.3) Геометрически вероятность попадания величины X на участок (а, Р) равна площади кривой распределения, опи- рающейся на этот участок (рис. 5.4.3). Формула (5.4.2) выражает плотность распределения через функцию распределения. Зададимся обратной задачей: выразить функ- цию распределения через плотность. По определению F(x) = P(X < х)==^Р(— оо< X <х), откуда по формуле (5.4.3) имеем: F(x)= f f(x)dx, (5.4.4) — СО ’) Так как вероятность любого отдельного значения непрерывной слу- чайной величины равна нулю, то можно рассматривать здесь отрезок (а, р), не включая в него левый конец, т. е. отбрасывая знак равенства в а<X < р.
82 w СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ (ГЛ. 5 Геометрически F (х) есть не что иное, как площадь кривой рас- пределения, лежащая левее точки х (рис. 5.4.4). Укажем основные свойства плотности распределения. 1. Плотность распределения есть неотрицательная функция: Это свойство непосредственно вытекает из того, что функция распределения F (х) есть-неубывающая функция. 2. Интеграл в бесконечных пределах от рлотности распределения 2) полная площадь, ограниченная абсцисс, равна единице. равен единице: 00 J f(x)dx=\. е —со Это следует из формулы (5.4.4) и из того, что F(+oo)=l. Геометрически основные свойства плотности распреде- ления означают, что: 1) вся кривая распределения лежит не ниже оси абсцисс; кривой распределения и осью Выясним размерности основных характеристик случайной вели- чины— функции распределения и плотности распределения. Функция распределения F(х), как всякая вероятность, есть величина безраз- мерная. Размерность плотности распределения /(х), как видно из формулы (5.4.1), обратна размерности случайной величины. Пример 1. Функция распределения непрерывной случайной величины X задана выражением .0 при х < О, F (х) = ах2 при 0 < х < 1, 1 при X > 1. а) Найти коэффициент а. б) Найти плотность распределения /(х). в) Найти вероятность попадания величины X на участок от 0,25 до 0,5. Решение, а) Так как функция распределения величины X непрерывна, то при х = 1 дх2=1, откуда в«1. б) Плотность распределения величины X выражается формулой /(*)« О 2х О при х < О, при 0 < х< 1, при х > 1. в) По формуле (5.3.1) имеем: Р (0,25 < X < 0,5) «« F (0,5) — F (0,25) = 0,5» — 0,252 « 0,1875.
MJ ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ '83 Пример 2. Случайная величина X подчинена закону распределения с плотностью: ., ч те . . «. f (х) == a cos х при — < х < > f (х) = 0 при х < — y или х > а) Найти коэффициент а. б) Построить график плотности распределения /,(х). в) Найти функцию распределения F (х) и построить ее график. г) Найти вероятность попадания ве- личины X на участок от 0 до Решение, а) Для определения коэффициента а воспользуемся свойст- вом плотности распределения: 2 f a cos xdx — Za — 1, откуда б) " 2 1 а~ 2? в) По формуле (5.4.4) получаем выражение функции распределения: Г(х) = О при х<—~; 1 л а 1 1 \ (sin х-}-1) при — 1 при х>^. График функции F (х) изображен на рис. 5.4.6.
84 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 г) По формуле (5.3.1) имеем: p(o<X<^) = |(sin^ + l)-l(slnO+l) = ^-. Тот же результат, но несколько более сложным путем можно получить по формуле (5.4.3). Пример 3. Плотность распределения случайной величины X задана формулой: ^(л)== я(14-х») '>• а) Построить график плотности f(x). б) Найти вероятность того, что величина X попадет на участок (—1,4-1). Решение, а) График плотности дан на рис. 5.4.7. б) По формуле (5.4.3) имеем: 1 — 1 5.5. Числовые характеристики случайных величин» Их роль и назначение В данной главе мы познакомились с рядом полных, исчерпываю- щих характеристик случайных величин—так называемых законов распределения. Такими характеристиками были: для дискретной случайной величины а) функция распределения; б) ряд распределения (графически — многоугольник распределения); для непрерывной величины а) функция распределения; б) плотность распределения (графически — кривая распределения). 1) Так называемый закон Коши.
5.6] ХАРАКТЕРИСТИКИ ПОЛОЖЕНИЯ 85 Каждый закон распределения представляет собой некоторую функцию, и указание этой функции полностью описывает случай- ную .величину с вероятностной точки зрения. Однако во многих вопросах практики нет необходимости характе- ризовать случайную величину полностью, исчерпывающим образом. Зачастую достаточно бывает указать только отдельные числовые параметры, до некоторой степени характеризующие существенные черты распределения случайной величины: например, какое-то сред- нее значение, около которого группируются возможные значения слу- чайной величины; какое-либо число, характеризующее степень раз- бросанности этих значений относительно среднего, и т. д. Поль- зуясь такими характеристиками, мы хотим все существенные све- дения относительно случайной величины, которыми мы располагаем, выразить наиболее компактно с помощью минимального числа числовых параметров. Такие характеристики, назначение которых — выразить в сжатой форме наиболее существенные особенности распределения, называются числовыми характеристиками случайной величины. В теории вероятностей числовые характеристики и операции с ними играют огромную роль. С помощью числовых характеристик суще- ственно облегчается решение многих вероятностных задач. Очень часто удается решить задачу до конца, оставляя в стороне законы распределения и оперируя одними числовыми характеристиками. При этом весьма важную роль играет то обстоятельство, что когда в задаче фигурирует большое количество случайных величин, каждая из которых оказывает известное влияние на численный результат опыта, то закон распределения этого результата в значительной мере можно считать независимым от законов распределения отдельных случайных ве- личин (возникает так называемый нормальный закон распределения). В этих случаях по существу задачи для исчерпывающего суждения о результирующем законе распределения не требуется знать законов рас- пределения отдельных случайных величин, фигурирующих в задаче; до- статочно знать лишь некоторые числовые характеристики этих величин. В теории вероятностей и математической статистике применяется большое количество различных числовых характеристик, имеющих различное назначение и различные области применения. Из них в настоящем курсе мы введем только некоторые, наиболее часто применяемые. 5.6. Характеристики положения (математическое ожидание, мода, медиана) Среди числовых характеристик случайных величин нужно прежде всего отметить те, которые характеризуют положение случайной величины на числовой оси, т. е. указывают некоторое среднее, ориентировочное значение, около которого группируются все возмож- ные значения случайной величины.
86 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 Среднее значение случайной величины есть некоторое число, являющееся как бы ее «представителем» и заменяющее ее при грубо ориентировочных расчетах. Когда мы говорим: «среднее время работы лампы равно 100 часам» или «средняя точка попадания смещена от- носительно цели на 2 м вправо», мы этим указываем определенную числовую характеристику случайной величины, описывающую ее местоположение на числовой оси, т. е. «характеристику положения». Из характеристик положения в теории вероятностей важнейшую роль играет математическое ожидание случайной величины, ко- торое иногда называют просто средним значением случайной величины. . Рассмотрим дискретную случайную величину X, имеющую воз- можные значения хр х2, ..., хп с вероятностями рр р2...рп. Нам требуется охарактеризовать каким-то числом положение значений случайной величины на оси абсцисс с учетом того, что эти значения имеют различные вероятности. Для этой цели естественно воспользо- ваться так называемым «средним взвешенным» из значений xlt причем каждое значение х1 при осреднении должно учитываться с «весом», пропорциональным вероятности этого значения. Таким образом, мы вычислим среднее значение случайной величины X, которое мы обо- значим п У х.р 1U I У1 Х1Р1 XsPs-h ••• ~\~ХпРп / = 1 п или, учитывая, что 2^ = 1, /=1 Al [X] = 2 х1р1. (5.6.1) i sz 1 Это среднее взвешенное значение и называется математическим ожиданием случайной величины. Таким образом, мы ввели в рас- смотрение одно из важнейших понятий теории вероятностей — поня- тие математического ожидания. Математическим ожиданием случайной величины называется сумма произведений всех возможных значений случайной вели- чины на вероятности этих значений. Заметим, что в вышеприведенной формулировке определение мате- матического ожидания справедливо, строго говоря, только для ди- скретных случайных величин; ниже будет дано обобщение этого по- нятия на случай непрерывных величин. Для того чтобы сделать понятие математического ожидания более наглядным» обратимся к механической интерпретации распределения
6.61 ХАРАКТЕРИСТИКИ ПОЛОЖЕНИЯ 87 дискретной случайной величины. Пусть на оси абсцисс расположены точки с абсциссами xv х2, .... хп, в которых сосредоточены соот- п ветственно массы pv р2.....ря, причем S pz = l. Тогда, очевидно, математическое ожидание М [Л’], определяемое формулой (5.6.1), есть не что иное, как абсцисса центра тяжести данной системы материальных точек. Математическое ожидание случайной величины X связано свое- образной зависимостью со средним арифметическим наблю- денных значений случайной величины при большом числе опытов. Эта зависимость того же типа, как зависимость между частотой и вероятностью, а именно: при большом числе опытов среднее ариф- метическое наблюденных значений случайной величины приближается (сходится по вероятности) к ее математическому ожиданию. Из нали- чия связи между частотой и вероятностью можно вывести как след- ствие наличие подобной же связи между средним арифметическим и математическим ожиданием. Действительно, рассмотрим дискретную случайную величину Х9 характеризуемую рядом распределения: Xi Xi х2 хп Pi Pi Р2 Рп где р1 = Р(Х = х1). Пусть производится М независимых опытов, в каждом из которых величина X принимает определенное значение. Предположим, что значение хх появилось тх раз, значение х2 появилось т2 раз, вообще значение появилось mt раз. Очевидно,. п Z = 1 Вычислим среднее арифметическое наблюденных значений вели- чины X, которое в отличие от математического ожидания М мы обозначим М* [Л"]: ЛГ[Л] ... +хптп N п — х ?± + х -^-4- -Д—х — Ух mi — Х' N ’ N * * ’ * ‘ ПТ — 2j^Xi ПТ * /=1
88 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 Но есть не что иное, как частота (или статистическая ве- роятность) события X = xt\ эту частоту можно обозначить р*. Тогда - - Z = 1 т. е. среднее арифметическое наблюденных значений случайной вели- чины равно сумме произведений всех возможных значений случайной величины на частоты этих значений. При увеличении числа опытов N частоты р* будут приближаться (сходиться по вероятности). к соответствующим вероятностям р(. Следовательно, и среднее арифметическое наблюденных значений случайной величины М* [X] при увеличении числа опытов будет при- ближаться (сходиться по вероятности) к ее математическому ожида- нию М (X]. Сформулированная выше связь между средним арифметическим и математическим ожиданием составляет содержание одной из форм закона больших чисел. Строгое доказательство этого закона будет дано нами в главе 13. Мы уже знаем, что все формы закона больших чисел констати- руют факт устойчивости некоторых средних при большом числе опы- тов. Здесь речь идет об устойчивости среднего арифметического из ряда наблюдений одной и той же величины. При небольшом числе опытов среднее арифметическое их результатов случайно; при доста- точной увеличении числа опытов оно становится «почти не случай- ным» и, стабилизируясь, приближается к постоянной величине — математическому, ожиданию. Свойство устойчивости средних при большом числе опытов легко проверить экспериментально. Например, взвешивая какое-либо тело в лаборатории на точных весах, мы в результате взвешивания полу- чаем каждый раз новое значение; чтобы уменьшить ошибку наблю- дения, мы взвешиваем тело несколько раз и пользуемся средним арифметическим полученных значений. Легко убедиться, что при дальнейшем увеличении числа опытов (взвешиваний) среднее арифме- тическое реагирует на это увеличение все меньше и меньше и при достаточно большом числе опытов практически перестает меняться. Формула (5.6.1) для математического ожидания соответствует случаю дискретной случайной величины. Для непрерывной величины X математическое ожидание, естественно, выражается уже не суммой, а интегралом: ЛЦХ]= J xf{x)dx, (5.6.2) где / (х) — плотность распределения величины X.
5.6] ХАРАКТЕРИСТИКИ ПОЛОЖЕНИЯ 89 Формула (5.6.2) получается из формулы (5.6.1), если в ней заме- нить отдельные значения х, непрерывно изменяющимся параметром х, соответствующие вероятности pt—элементом вероятности f(x)dx9 конечную сумму — интегралом. В дальнейшем мы часто будем поль- зоваться таким способом распространения формул, выведенных для прерывных величин, на случай непрерывных величин. В механической интерпретации математическое ожидание непре- рывной случайной величины сохраняет тот же смысл — абсциссы центра тяжести в случае, когда масса распределена по оси абсцисс непрерывно, с плотностью /(х). Эта интерпретация часто позволяет найти математическое ожидание без вычисления интеграла (5.6.2), из простых механических соображений. Выше мы ввели обозначение М [X] для математического ожида- ния величины X. В ряде случаев, когда величина М [X] входит в формулы как определенное число, ее удобнее обозначать одной буквой. В этих случаях мы будем обозначать математическое ожида- ние величины X через тх: тх = М[Х]. Обозначения тх и М [X] для математического ожидания будут в дальнейшем применяться параллельно в зависимости от удобства той или иной записи формул. Условимся также в случае надобности сокращать слова «математическое ожидание» буквами м. о. Следует заметить, что важнейшая характеристика положения — математическое ожидание — существует не для всех случайных вели- чин. Можно составить примеры таких случайных величин, для которых математического ожидания не существует, так как соответствующая сумма или интеграл расходятся. Рассмотрим, например, прерывную случайную величину X с рядом распределения: 1 22 2 1 2* Нетрудно убедиться в том, что = Ь т* е* ряд распределе- ния имеет смысл; однако сумма 5 xipi в данном случае расходится и, следовательно, математического ожидания величины X не суще- ствует. Однако для практики такие случаи существенного интереса не представляют. Обычно случайные величины, с которыми мы имеем дело, имеют ограниченную область возможных значений и безусловно обладают математическим ожиданием.
90 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. $ Выше мы. дали формулы (5.6.1) и (5.6.2), выражающие математи- ческое ожидание соответственно для прерывной и непрерывной слу- чайной величины X. Если величина X принадлежит к величинам смешанного типа, то ее математическое ожидание выражается формулой вида: М = S xtPi + I + fxF'(x)dx, (5.6.3) где сумма распространяется на все точки в которых функция распределения тер- пит разрыв, а интеграл — на все участки, на которых функция распределения не- прерывна. Кроме важнейшей из ха- рактеристик положения —ма- тематического ожидания, — на практике иногда применяются и другие характеристики положения, в частности мода и медиана случайной величины. Модой случайной величины называется ее наиболее вероятное значение. Термин «наиболее вероятное значение», строго говоря, применим только к прерывным величинам; для непрерывной величины модой является то значение, в котором плотность вероятности макси- мальна. Условимся обозначать моду буквой На рис. 5.6.1 и 5.6.2 показана мода соответственно для прерывной и непрерывной случайных величин.
5.6] ХАРАКТЕРИСТИКИ ПОЛОЖЕНИЯ 91 Если многоугольник распределения (кривая распределения) имеет более одного максимума, распределение называется «полимодальным» (рис. 5.6.3 И 5.6.4). Иногда встречаются распределения, обладающие посередине не максимумом, а минимумом (рис. 5.6.5 и 5.6.6). Такие распределения называются «антиподальными». Примером антимодального распреде- ления может служить распределение, полученное в примере 5, п° 5.1.
92 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ (ГЛ 5 Геометрическая медиана — это абсцисса В общем случае мода и математическое ожидание случайной вели- чины не совпадают. В частном случае, когда распределение является симметричным и модальным (т. е. имеет моду) и существует мате- матическое ожидание, то оно совпадает с модой и центром симметрии распределения. Часто применяется еще одна характеристика положения — так на- Этой характеристикой поль- зуются обычно только для непрерывных случайных ве- личин, хотя формально можно ее определить и для прерывной величины. Медианой случайной ве- личины X называется такое ее значение для ко- торого Р(Х <^е)=Р(^>^), т. е. одинаково вероятно, окажется ли случайная вели- чина меньше или больше оМе. точки, в которой площадь, ограниченная кривой распределения, делится пополам (рис. 5.6.7). В случае симметричного модального распределения медиана сов- падает с математическим ожиданием и модой. 5,7. Моменты. Дисперсия. Среднее квадратическое отклонение Кроме характеристик положения — средних, типичных значений случайной величины,—употребляется еще ряд характеристик, каждая из которых описывает то или иное свойство распределения. В каче- стве таких характеристик чаще всего применяются так называемые моменты. Понятие момента широко применяется в механике для описания распределения масс (статические моменты, моменты инерции и т. д.). Совершенно теми же приемами пользуются в теории вероятностей для описания основных свойств распределения случайной величины. Чаще всего применяются на практике моменты двух видов: начальные и центральные. Начальным моментом s-го порядка прерывной случайной величины X называется сумма вида: п %[*] = 2*^. (5-7.1)
5.7) МОМЕНТЫ. ДИСПЕРСИЯ 93 Очевидно, это определение совпадает с определением начального момента порядка £ в механике, если на оси абсцисс в точках хР х2, .... хп сосредоточены массы pv р2......рп. Для непрерывной случайной величины X начальным моментом s-ro порядка называется интеграл со as[X]= jxsf(x)dx. (5.7.2) — СО Нетрудно убедиться, что введенная в предыдущем п° основная характеристика положения — математическое ожидание — представляет собой не что иное, как первый начальный момент случайной ве- личины X. Пользуясь знаком математического ожидания, можно объединить две формулы (5.7.1) и (5.7.2) в одну. Действительно, формулы (5.7.1) и (5.7.2) по структуре полностью аналогичны формулам (5.6.1) и (5.6.2), с той разницей, что в них вместо xL и х стоят, соответ- ственно, xj й Xs. Поэтому можно написать общее определение началь- ного момента s-го порядка, справедливое как для прерывных, так и для непрерывных величин: = (5.7.3) т. е. начальным моментом s-го порядка случайной величины X называется математическое ожидание s-й степени этой слу- чайной величины г). Перед тем как дать определение центрального момента, введем новое понятие «центрированной случайной величины». Пусть имеется случайная величина X с математическим ожида- нием тх. Центрированной случайной величиной, соответствующей величине X, называется отклонение случайной величины X от ее математического ожидания: Х = Х — тх. (5.7.4) Условимся в дальнейшем везде обозначать центрированную слу- чайную величину, соответствующую данной случайной величине, той же буквой со значком ° наверху. ь Нетрудно убедиться, что математическое ожидание центрирован- ной случайной величины равно нулю. Действительно, для прерывной *) Понятие математического ожидания функции от случайной величины будет уточнено далее (см. главу 10).
94 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 величины Al [X] = Al [X — тх] = 2 (xi — тх) Pt= (=1 п п = %xiPi— Pi = inx — /Пдг = О; (5.7.5) i=i i=i аналогично и для непрерывной величины. Центрирование случайной величины, очевидно, равносильно пере- носу начала координат в среднюю, «центральную» точку, абсцисса которой равна математическому ожиданию. . Моменты центрированной случайной величины носят название центральных моментов. Они аналогичны моментам относительно центра тяжести в механике. Таким образом, центральным моментом порядна s случайной величины X называется математическое ожидание 5-й степени соот- ветствующей центрированной случайной величины: [X] = М [ХЧ = М [(АГ - т. (5.7.6) Для прерывной случайной величины 5-й центральный момент вы- ражается суммой п (5.7.7) 1 = 1 а для непрерывной — интегралом со Р,= f (x-tnx)sf(x)dx. (5.7.8) —оо В дальнейшем в тех случаях, когда не возникает сомнений, к какой случайной величине относится данный момент, мы будем для краткости вместо а5 [АГ] и [АГ] писать просто as и рь5. Очевидно, для любой случайной величины центральный момент первого порядка равен нулю: р1 = М[Х] = М[Х — mJ = 0, (5.7.9) так как математическое ожидание центрированной случайной вели- чины всегда равно нулю. Выведем соотношения, связывающие центральные и начальные моменты различных порядков. Вывод мы проведем только для пре- рывных величин; легко убедиться, что точно те же соотношения справедливы и для непрерывных величин, если заменить конечные суммы интегралами, а вероятности — элементами вероятности.
5.7] МОМЕНТЫ. ДИСПЕРСИЯ 95 Рассмотрим второй центральный момент: п Р2 = м IX2] = 2 (xt - тх)2 Pl = 1=1 и п я в 2 X2.pl — 2тх 2 xiPi ч- m2 2 Pi — *2 ~ ~ ®2 ~ Аналогично для третьего центрального момента получим: п п п Р-з == М [Л3] = 2 (xt — ^)3 Pi = 5 x3lpl — imx % x2Pl + + 3m2 2 xipl — w?x 2 Pi = a3 — За2тл + 2m3. 1=1 /=1 Выражения для p4, p5 и т. д. могут быть получены аналогич- ным путем. Таким образом, для центральных моментов любой случайной ве- личины X справедливы формулы: Н = 0, ^=a2-w;< Гз = аз~ 3/иЛ+2от’ (5.7.10) Вообще говоря, моменты могут рассматриваться не только отно- сительно начала координат (начальные моменты) или математического ожидания (центральные моменты), но и относительно произвольной точки а: Ъ = Л1[(^-а)5]. (5.7.11) Однако центральные моменты имеют перед всеми другими преиму- щество: первый центральный момент, как мы видели, всегда равен нулю, а следующий за ним, второй центральный момент при этой системе отсчета имеет минимальное значение. Докажем это. Для прерывной случайной величины X при s = 2 формула (5.7.11) имеет вид: п 72 = 5(*/ —О2Pl- (5.7.12) Z = 1 Преобразуем это выражение: п 72 = 5 — тх 4- тх — a)2 pt = Z=1 п п 5 (х, — тх)2Р1 — 2(тх — а)^ <х(^тх) р, + /=1 4- (тх — а)2 = р2 -I- (/лж — а)2.
96 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ГГЛ. 5 Очевидно, эта величина достигает своего минимума, когда тх = а, т. е. когда момент берется относительно точки тх. Из всех моментов в качестве характеристик случайной величины чаще всего применяются первый начальный момент (математическое ожидание) тА. = а1 и второй центральный момент Второй центральный момент называется дисперсией случайной величины. Ввиду крайней важности этой характеристики среди других моментов введем для нее специальное обозначение DJXJ: Согласно определению центрального момента О[Х] = Af[JV2]» (5.7.13) т. е. дисперсией случайной величины X называется математи- ческое ожидание квадрата соответствующей центрированной величины. Заменяя в выражении (5.7.13) величину X ее выражением, имеем также: D [zY] = М[(Х — тх)2]. (5.7.14) Для непосредственного вычисления дисперсии служат формулы: п DlX] = ^(xi — mJC)'2 р{, (5.7.15) D[X\ = J (х — (5.7.16) — CO — соответственно для прерывных и непрерывных величин. Дисперсия случайной величины есть характеристика рассеива- ния, разбросанности значений случайной величины около ее мате- матического ожидания. Само слово «дисперсия» означает «рассеивание». Если обратиться к механической интерпретации распределения, то дисперсия представляет собой не что иное, как момент инерции заданного распределения масс относительно центра тяжести (матема- тического ожидания). Дисперсия случайной величины имеет размерность квадрата слу- чайной величины; для наглядной характеристики рассеивания удобнее пользоваться величиной, размерность которой совпадает с размер- ностью случайной величины. Для этого из дисперсии извлекают ква- дратный корень. Полученная величина называется средним квадра- тическим отклонением (иначе—«стандартом») случайной величины X. Среднее квадратическое отклонение будем обозначать а [Х]: а[Х] = ]/Д[Х]. (5.7.17)
5.7] МОМЕНТЫ. ДИСПЕРСИЯ 97 Для упрощения записей мы часто будем пользоваться сокращен- ными обозначениями среднего квадратического отклонения и диспер- сии: и Dx. В случае, когда не возникает сомнения, к какой случайной величине относятся эти характеристики, мы будем иногда опускать значок х у ах и Dx и писать просто а и D. Слова «среднее квадратическое отклонение» иногда будем сокращенно заменять бук- вами с. к. о. На практике часто применяется формула, выражающая дисперсию случайной величины через ее второй начальный момент (вторая из формул (5.7.10)). В новых обозначениях она будет иметь вид: (5.7.18) Математическое ожидание тх и дисперсия Dx (или среднее ква- дратическое отклонение ах) — наиболее часто применяемые характе- ристики случайной величины. Они характеризуют наиболее важные черты распределения: его положение и степень разбросанности. Для более подробного описания распределения применяются моменты высших порядков. Третий центральный момент служит для характеристики асим- метрии (или «скошенности») распределения. Если распределение симметрично относительно математического ожидания (или, в меха- нической интерпретации, масса распределена симметрично относительно центра тяжести), то все моменты нечетного порядка (если они суще- ствуют) равны нулю. Действительно, в сумме п |*,== «х/ Pl при симметричном относительно тх законе распределения и нечет- ном 5 каждому положительному слагаемому соответствует равное.ему по абсолютной величине отрицательное слагаемое, так что вся сумма равна нулю. То же, очевидно, справедливо и для интеграла оо J (х~ mx)sf(x)dx, —ОО который равен нулю, как интеграл в симметричных пределах от не- четной функции. Естественно поэтому в качестве характеристики асимметрии рас- пределения выбрать какой-либо из нечетных моментов. Простейший из них есть третий центральный момент. Он имеет размерность куба случайной величины; чтобы получить безразмерную характеристику, третий момент р3 делят на куб среднего квадратического отклонения. 7-3015
98 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. б Полученная величина носит название «коэффициента асимметрии» или просто «асимметрии»; мы обозначим ее Sk: Sk = -^- а3 (5.7.19) показано два асимметричных распределения; одно На рис. 5.7.1 из них (кривая I) имеет положительную асиммет- рию (S&>0); другое (кри- вая //) — отрицательную (Sk < 0). Четвертый централь- ный момент служит для характеристики так назы- ваемой «крутости», т. е. островершинности или плосковершинности рас- пределения. Эти свойства распределения описы- ваются с помощью. так называемого эксцесса. Эксцессом случайной величины X называется величина Ех = Ц — 3. а4 (5.7.20) Рис. 5.7.2. Число 3 вычитается из отношения ~~ потому, что для весьма важ- ного и широко распростра- ненного в природе нормаль- ного закона распределения (с которым мы подробно познакомимся в дальнейшем) = 3. Таким образом, для нормального распреде- ления эксцесс равен нулю; кривые, более островершин- ные по сравнению с нор- мальной, обладают положи- тельным эксцессом; кривые более плосковершинные — отрицательным эксцессом. На рис. 5.7.2 представлены: нормальное распределение (кривая /), распределение с положительным эксцессом (кривая II) и распреде- ление с отрицательным эксцессом (кривая ///).
5J] МОМЕНТЫ. ДИСПЕРСИЯ 99, Кроме рассмотренных выше начальных и центральных моментов, на практике иногда применяются так называемые абсолютные мо- менты (начальные и центральные), определяемые формулами р5 = /И [|Х|Ч; Очевидно, абсолютные моменты четных порядков совпадают с обычными моментами. Из абсолютных моментов наиболее часто применяется первый абсолютный центральный момент v1 = 41[|X|] = M[|X-mJ], (5.7.21) называемый средним арифметическим отклонением. Наряду с дисперсией и средним квадратическим отклонением среднее ариф- метическое отклонение иногда применяется как характеристика рас- сеивания. Математическое ожидание, мода, медиана, начальные и централь- ные моменты и, в частности, дисперсия, среднее квадратическое отклонение, асимметрия и эксцесс представляют собой наиболее упо- требительные числовые характеристики случайных величин. Во многих задачах практики полная характеристика случайной величины — закон распределения — илине нужна, илине может быть получена. В этих случаях ограничиваются приблизительным описанием случайной вели- чины с помощью числовых характеристик, каждая из которых выражает какое-либо характерное свойство распределения. Очень часто числовыми характеристиками пользуются для при- ближенной замены одного распределения другим, причем обычно стремятся произвести эту замену так, чтобы сохранились неизменными несколько важнейших моментов. Пример 1. Производится один опыт, в результате которого может появиться или не появиться событие А, вероятность которого равна р. Рас- сматривается случайная величина X—-число появлений события А (харак- теристическая случайная величина события А). Определить ее характе- ристики: математическое ожидание, дисперсию, среднее квадратическое отклонение. Решение. Ряд распределения величины имеет вид: *1 0 1 Pl Я P где 7 = 1 — р — вероятность непоявления события А. По формуле (5.6.1) находим математическое ожидание величины X: mx = M[X]=0-q + l-p = p.
100 случайные величины и их ЗАКОНЫ РАСПРЕДЕЛЕНИЯ (ГЛ. в Дисперсию величины X определим по формуле (5.7.15): Cx»D[X] = (0-P)>.?+(l-^-W откуда = Уря- (Предлагаем читателю получить тот же результат, выразив дисперсию через второй начальный момент.) Пример 2. Производится три независимых выстрела по мишени; ве- роятность попадания при каждом выстреле равна 0,4. Случайная величина X —число попаданий. Определить характеристики величины X — математи- ческое ожидание, дисперсию, с. к. о., асимметрию. Решение. Ряд распределения величины X имеет вид: *1 0 1 2 3 Pl 0,216 0,432 0,288 0,064 Вычисляем числовые характеристики величины X: тх = 0- 0,216 4-1 • 0,4324-2 . 0,288 + 3 • 0,064 = 1,2; Dx = (0 — 1,2)2.0,216 + (1 — 1,2)2.0,432 + (2 — 1,2)*. 0,288 + _ ____ + (3 — 1,2)*. о,О64 = 0,72; ол = « у0,72 = 0,848; =. (0 — 1,2)’ • 0,216 + (1 —1,2)’ • 0,432 + (2 —1,2)’. 0,288 + 4- (3 — 1,2)’ • 0,064 -> 0,144; $*=!£= 0,144— » 0,236. 4 0,72 • 0,848 Заметим, что те же характеристики могли бы быть вычислены значи- тельно проще с помощью теорем о числовых характеристиках функций (см. главу 10). Пример 3. Производится ряд независимых опытов до первого по- явления события А (см. пример Зп°5.1). Вероятность события А в каждом опыте равна р. Найти математическое ожидание, дисперсию и с. к. о. числа опытов, которое будет произведено. Решение. Ряд распределения величины X имеет вид: *i 1 2 3 • • • i • • • Pl P ЧР ЧгР • • • qt-ip • • • Математическое ожидание величины X выражается суммой ряда »Пх = 1-Р4-2-др4-3.д’р+ ... +iq,~lp+ ...= = р(1 + 2? + 3?’+ ... ..).
Б.7] МОМЕНТЫ. ДИСПЕРСИЯ 101 Нетрудно видеть, что ряд, стоящий в скобках, представляет собой ре- зультат дифференцирования геометрической прогрессии: ?+?’+9з+ ... +?'+ ... =т47- Следовательно, |+2, + 3,.+ откуда т _ р _ 1 ТТТ г —— л* — р2 р Для определения дисперсии величины X вычислим сначала ее второй начальный момент: а2 = 2 x\pt = I2 • р + 22 • qp + З2 • q'p + ... + ? • ql }р + * • • ~ = р(12 + ^ + ^+ ... +/V-‘+ ...). Для вычисления ряда, стоящего в скобках, умножим на q ряд: 1 + 2? + з^+ ... ... =7ьг^ Получим: ,+2^4-з^+ ... +/?'+ Дифференцируя этот ряд по q, имеем: i2 + 22^4-3V+ ... +<V”' + ••• d Ч I + Ч dq (1-чУ ~ (I-?)»' Умножая на р—1—q, получим: а2 = _±±£_ О-?)2 По формуле (5.7.18) выразим дисперсию: п — — т2 — 1 + 7 1 _ q ________ q ' 2 тх~ {y_qy (1-^)2 ъткуда Пример 4. Непрерывная случайная величина X подчинена закону распределения с плотностью: f(x) =Я^“,лг1 (рис. 5.7.3). Найти коэффициент А. Определить м. о., дисперсию, с. к. о., асимме- трию, эксцесс величины X. Решение. Для определения А воспользуемся свойством плотности распределения: оо оо J f(jc)dx = 2A fe-xax^2A = l; —оо 0
102 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 отсюда Так как функция нечетная, то м. о. величины X равно нулю: оо тх = J* хе~,х 1 dx «= 0. — оо Дисперсия и с. к. о. равны, соответственно: оо о Так как распределение симметрично, то S^ = 0. Р-3 |i4 = 2 J ~ х4е~х dx =* 24, о откуда Ех = -^—3 = 3. at Пример 5. Случайная величина X подчинена закону распределения, плотность которого задана графически на рис. 5.7.4. Написать выражение плотности распределения. Найти м. о.,_ дисперсию, с. к. о. и асимметрию распреде- ления. Решение. Выражение плот- ности распределения имеет вид: ах при 0 < х < 1, 0 при х < 0 или х > 1. Пользуясь свойством плот- ности распределения, находим а = 2. Математическое ожидание ве- личины X: 1 тх = J 2x2dx=~. о /(*) = { Дисперсию найдем чёрез второй начальный момент: 1 * a2 = 2j = Dx=a2— rnx=^', о
58] ЗАКОН РАВНОМЕРНОЙ ПЛОТНОСТИ 103 отсюда 1 Q — ---- • 3 V 2 Третий начальный момент равен 1 a3 = 2jx’rf,t = -|. о Пользуясь третьей из формул (5.7.10), выражающей [л3 через начальные моменты, имеем: ^ = а3-2тЛ + 2тх--~^. откуда о 5.8. Закон равномерной плотности В некоторых задачах практики встречаются непрерывные случай- ные величины, о которых заранее известно, что их возможные зна- чения лежат в пределах некоторого определенного интервала; кроме того, известно, что в пределах этого интервала все значения слу- чайной величины одинаково вероятны (точнее, обладают одной и той же плотностью вероятности). О таких случайных величинах говорят, что они распределяются по закону равномерной плотности. Приведем несколько примеров подобных случайных величин. Пример 1. Произведено взвешивание тела на точных весах, но в распоряжении взвешивающего имеются только разновески весом не менее 1 г; результат взвешивания по- , называет, что вес тела заключен между k и (&-|-1) граммами. Вес тела принят равным граммам. Допущенная при этом ошибка X, очевидно, есть случайная величина, распределенная с равномерной плотностью на участке Пример 2. Вертикально поста- вленное симметричное колесо (рис. 5.8.1) приводится во вращение и затем останавливается вследствие трения. Рассматривается случайная величина 6 — угол, который после оста- новки будет составлять с горизонтом фиксированный радиус ко- леса ОД. Очевидно, величина 0 распределена с равномерной плот- ностью на участке (0, 2к).
104 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 Пример 3. Поезда метрополитена идут с интервалом 2 мин. Пассажир выходит на платформу в некоторый момент времени. Время Т, в течение которого ему придется ждать поезда, предста- вляет собой случайную величину, распределенную с равномерной плотностью на участке (0, 2) Рис. 5.8.2. минут. Рассмотрим случайную вели- чину X, подчиненную закону равномерной плотности на участке от а до р (рис. 5.8.2), и напи- шем для нее выражение плотности распределения f (х). Плотность /(х) постоянна и равна с на от- "х резке (а, Р); вне этого отрезка она равна нулю: с при а < х < р, 0 при х < а или х > р. Так как площадь, ограниченная кривой распределения, равна единице: с (Р—а)= 1, то и плотность распределения /(х) имеет вид: = ПРИ а<х<р, /(х) = 0 при х <а или х > р. (5.8.1) Формула (5.8.1) и выражает закон равномерной плотности на участке (а, Р). Напишем выражение для функции распределения F (х). Функция распределения выражается площадью кривой распределения, лежащей леве^ точки х. Следовательно, 0 при х < а, F(x) = при а < х < р, при х > р. График функции F (х) приведен на рис. 5.8.3. Определим основные числовые характеристики случайной вели- чины Х\ подчиненной закону равномерной плотности на участке от а до р.
105 ЗАКОН РАВНОМЕРНОЙ ПЛОТНОСТИ Математическое ожидание величины X равно: з Г X . а + ? тх— J dx— 2 ’ а (5.8.2) В силу симметричности равномерного распределения медиана ве- а -4- В личины X также равна —• Моды закон равномерной плотности не имеет. По формуле (5.7.16) находим дисперсию величины X: В силу симметричности распределения его асимметрия равна нулю: Sk = ^- — 0. (5.8.5) Для определения эксцесса находим четвертый центральный момент: и hx “ + (?-“)’ 1*4 Р— a J \Х 2 J ах— go • а откуда = —3 = —1,2. (5.8.6) Определяем среднее арифметическое отклонение: /|*-“45НХ = Г=^ fiX-a-ir)dXs=^' (О-7) а * а + Р 2 Наконец, найдем вероятность попадания случайной величины X, рас- пределенной по закону равномерной плотности, на участок (а, Ь)9
106 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ. [ГЛ. 5 представляющий собой часть участка (а, р) (рис. 5.8.4). Геометри- чески эта вероятность представляет собой площадь, заштрихованную на рис. 5.8.4. Очевидно, она равна: Р(а<Х<Ь) = -^, (5.8.8) т. е. отношению длины отрезка (а, Ь) ко всей длине участка (а, £), — на котором задано равномерное f(x) распределение. 5.9. Закон Пуассона Во многих задачах практики приходится иметь дело со слу- чайными величинами, распреде- ленными по своеобразному за- х кону, который называется за- коном Пуассона. Рассмотрим прерывную слу- чайную величину X, которая может принимать только целые, неотрицательные значения: 0, 1, 2.........т, .. ., причем последовательность этих значений теоретически не ограничена. Говорят, что случайная величина X распределена по закону Пуассона, если вероятность того, что она примет определенное зна- чение /п, выражается формулой ат Р" = ~^е~а 0« = 0. 1. •••)• (5-9.1) где а — некоторая положительная величина, называемая параметром закона Пуассона. Ряд распределения случайной величины Х> распределенной по закону Пуассона, имеет вид: хт 0 1 2 . . . т . . . рт е~а а Т\е -е-а 2! е . . . 1 © . . . Убедимся прежде всего, что последовательность вероятностей, задаваемая формулой (5.9.1), может представлять собой ряд распре-
8.91 ЗАКОН ПУАССОНА 107 деления, т. е. что сумма всех вероятностей Рт равна единице. Имеем: * т т=0 а V — 21 ml \ Но = еа, т=0 откуда т = 0 На рис. 5.9.1 показаны многоугольники распределения случайной величины X, распределенной по закону Пуассона, соответствующие различным значениям пара- метра а. В таблице 8 при- ♦ ложения приведены значе- ния Рт для различных а. Определим основные ха- Ц5 рактеристики — математиче- ское ожидание и диспер- сию—случайной величины X, распределенной по закону Пуассона. По определению математического ожидания т 0—0,5 а =3,5 Рис. 5.9.1. О 1 2 3 4 6 7 8 т тх = М [X] = тРт ~ m-Q m=0 Первый член суммы (соответствующий т = 0) равен нулю» сле- довательно» суммирование можно начинать с т = 1: Sam д п V* тат~' т—ге~а = ае~а У----------;— ml £4 ml mssl m=l Обозначим т — 1 = k\ тогда Zj (m —1)! \ /п = 1 (5.9.2) тх = ае~а У -jp = ае~аеа = а. Л=0 Таким образом, параметр а представляет собой не что иное, как математическое ожидание случайной величины X.
108 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ (ГЛ. S Для определения дисперсии найдем сначала второй начальный момент величины X: = а 2 К»--D + D^jr.-- т = 1 По ранее доказанному т = 1 к=0 кроме того, 00 V т-----г-ге~а = е~аеа = \, Ы (т— 1)! т = 1 следовательно, а2 = а (а 4- 1). Далее находим дисперсию величины X: £>ж = а2 — т2х = а2 + а — а2 = а. (5.9.3) , Таким образом, дисперсия случайной величины, распределен- ной по закону Пуассона, равна ее математическому ожи- данию а. Это свойство распределения Пуассона часто применяется на прак- тике для решения вопроса, правдоподобна ли гипотеза о том, что случайная величина X распределена по закону Пуассона. Для этого Определяют из опыта статистические характеристики— математиче- ское ожидание и дисперсию — случайной величины 1). Если их значе- ния близки, то это может служить доводом в пользу гипотезы о пуассоновском распределении; резкое различие этих характеристик, напротив, свидетельствует против гипотезы. Определим для случайной величины X, распределенной по закону Пуассона, вероятность того, что она примет значение не меньше ’) О способах экспериментального определения этих характеристик см. ниже, гл. 7 и 14.
8.9] ЗАКОН ПУАССОНА 109 заданного k. Обозначим эту вероятность Я4 = Р(Х>Л). Очевидно, вероятность R* может быть вычислена как сумма • •• = 2 рт- т Однако значительно проще определить ее из вероятности проти- воположного события: Л-1 /гЛ=1-(Р0+Л4-... +p»-i)=i- 2 Рт- (5.9.4) т =0 В частности, вероятность того, что величина X примет положи- тельное значение, выражается формулой /^=1—Ро=1—А (5.9.5) Мы уже упоминали о том, что многие задачи практики приводят к распределению Пуассона. Рассмотрим одну из типичных задач такого рода. Пусть на оси абсцисс Ох случайным образом распределяются точки (рис. &.9.2). Допустим, что случайное распределение точек удовлетворяет следующим условиям: 1. Вероятность попадания того или иного числа точек на отрезок I зависит только от длины этого отрезка, но не зависит от его поло- жения на оси абсцисс. Иными словами» точки распределены на оси Рис. 5.9.2. абсцисс с одинаковой средней плотностью. Обозначим эту плотность (т. е. математическое ожидание числа точек, приходящихся на еди- ницу длины) через X. 2. Точки распределяются на оси абсцисс независимо друг от друга, т. е. вероятность попадания того или другого числа точек на задан- ный отрезок не зависит от того, сколько их попало на любой дру- гой отрезок, не перекрывающийся с ним. 3. Вероятность попадания на малый участок Дх двух или более точек пренебрежимо мала по сравнению с вероятностью попадания одной точки (это условие означает практическую невозможность совпадения двух или более точек).
ПО СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ 5 Выделим на оси абсцисс определенный отрезок длины I и рас- смотрим дискретную случайную величину X — число точек, попа- дающих на этот отрезок. Возможные значения величины будут О, 1,2,...,/»,... (5.9.6) Так как точки попадают на отрезок независимо друг от друга, то теоретически не исключено, что их там окажется сколь угодно много, т. е. ряд (5.9.6) продолжается неограниченно. Докажем, что случайная величина X имеет закон распределения Пуассона. Для этого вычислим вероятность Рт того, что на отрезок I попадет ровно т точек. Сначала решим более простую задачу. Рассмотрим на оси Ох малый участок Дх и вычислим вероятность того, что на этот участок попадет хотя бы одна точка. Будем рассуждать следующим образом. Математическое ожидание числа точек, попадающих на этот участок, очевидно, равно ХДх (т. к. на единицу длины попадает в среднем X точек). Согласно условию 3 для малого отрезка Дх можно прене- бречь возможностью попадания на него двух или больше точек. Поэтому математическое ожидание ХДх числа точек, попадающих на участок Дх, будет приближенно равно вероятности попадания на него одной точки (или, что в наших условиях равнозначно, хотя бы одной). Таким образом, с точностью до бесконечно малых высшего порядка, при Дх—>0 можно считать вероятность того, что на уча- сток Дх попадет одна (хотя бы одна) точка, равной ХДх, а вероят- ность того, что не попадет ни одной, равной 1—ХДх. Воспользуемся этим для вычисления вероятности Рт попадания на отрезок I ровно т точек. Разделим отрезок I на п равных частей длиной Дх = -^-. Условимся называть элементарный отрезок Дх «пустым», если в него не попало ни одной точки, и «занятым», если в него попала хотя бы одна. Согласно вышедоказанному вероятность того, что отрезок Дх окажется «занятым», приближенно равна ХДх = XZ . М = —; вероятность того, что он окажется «пустым», равна 1-----~. Так как, согласно условию 2, попадания точек в неперекрывающиеся отрезки независимы, то наши п отрезков можно рассмотреть как п независимых «опытов», в каждом из которых отрезок может быть «занят» с вероятностью Найдем вероятность того, что среди п отрезков будет ровно tn «занятых». По теореме о повторении опы- тов эта вероятность равна гт { XZ /. М\п~т П \ п ) \ п /
ЗАКОН ПУАССОНА * Б.9] или, обозначая XZ = a, 111 (5.9.7) При достаточно большом п эта вероятность приближенно равна вероятности попадания на отрезок I ровно т точек, так как попада- ние двух или больше точек на отрезок Ах имеет пренебрежимо малую вероятность. Для того чтобы найти точное значение Рт, нужно в вы- ражении (5.9.7) перейти к пределу при п->оо: <5-9-8> Преобразуем выражение, стоящее под знаком предела: (1—— V п(п — 1) ... (л — m 4~ 1) ат \ п ) \ п) Первая дробь и знаменатель последней дроби в выражении (5.9.9) при п->сю, очевидно, стремятся к единице. Выражение — от п не . зависит. Числитель последней дроби можно преобразовать так: При п-> оо ~->оо, и выражение (5.9.10) стремится к е~а. Таким образом, доказано, что вероятность попадания ровно т точек, в отрезок I выражается формулой где a=XZ, т. е. величина X распределена по закону Пуассона с па- раметром а=\1. Отметим, что величина а по смыслу представляет собой среднее число точек, приходящееся на отрезок Z. Величина Rx (вероятность того, что величина X примет положи- тельное значение) в данном случае выражает вероятность того, что на отрезок I попадет хотя бы одна точка: Rx — \—e'a. (5.9.11)
112 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ |ГЛ. 5 Таким образом, мы убедились, что распределение Пуассона воз- никает там, где какие-то точки (или другие элементы) занимают слу- чайное положение независимо друг от друга, и подсчитывается коли- чество этих точек, попавших в какую-то область. В нашем случае та- кой «областью» был отрезок I на оси абсцисс. Однако наш вывод легко распространить и на случай распределения точек на плоскости (слу- чайное плоское поле точек) и в пространстве (случайное простран- ственное поле точек). Нетрудно доказать, что если соблюдены условия: 1) точки распределены в поле статистически равномерно со сред- ней плотностью К; 2) точки попадают в неперекрывающиеся области независимым образом; 3) точки появляются поодиночке, а не парами, тройками и т. д., то число точек X. попадающих в любую область D (плоскую или пространственную), распределяется по закону Пуассона: Р =—ге~а (m = 0, 1, 2, ...), т т\ v 7 где а — среднее число точек, попадающих в область D. Для плоского случая а = S где SD — площадь области D; для пространственного a = VD.X, где VD — объем области D. Заметим, что для наличия пуассоновского распределения числа точек, попадающих в отрезок или область, условие постоянной плот- ности (Х = const) несущественно. Если выполнены два других условия, то закон Пуассона все равно имеет место, только параметр а в нем приобретает другое выражение: он получается не простым умноже- нием плотности X на длину, площадь или объем области, а инте- грированием переменной плотности по отрезку, площади или объему. (Подробнее об этом см. п° 19.4.) Наличие случайных точек, разбросанных на линии, на плоскости или объеме — не единственное условие, при котором возникает рас- пределение Пуассона. Можно, например, доказать, что закон Пуас- сона является предельным для биномиального распределения: Рт,п=С^рт(\-р)п-т, (5.9.12) если одновременно устремлять число опытов п к бесконечности, а вероятность р — к нулю, причем их произведение пр сохраняет постоянное значение: пр — а. (5.9.13)
5.9] ЗАКОН ПУАССОНА ИЗ Действительно, это предельное свойство биномиального распре- деления можно записать в виде: lim С™рт(\ — р)"~т = ^-е~а. (5.9.14) Но из условия (5.9.13) следует, что />=£• (5.9.15) Подставляя (5.9.15) в (5.9.14), получим равенство .. / а \т I. а \п-т ат ~ А™ с’(»)(-») <5'9-16) которое только что было доказано нами по другому поводу. Это предельное свойство биномиального закона часто находит применение на практике. Допустим, что производится большое коли- чество независимых опытов п, в каждом из которых событие А имеет очень малую вероятность р. Тогда для вычисления вероятности Рт, п того, что событие А появится ровно т раз, можно воспользоваться приближенной формулой Рт,п^^-е-пр. (5-9.17) где пр —а — параметр того закона Пуассона, которым приближенно заменяется биномиальное распределение. От этого свойства закона Пуассона — выражать биномиальное распределение при большом числе опытов и малой вероятности со- бытия — происходит его название, часто применяемое в учебниках статистики: закон редких явлений. Рассмотрим несколько примеров, связанных с пуассоновским рас- пределением, из различных областей практики. Пример 1. На автоматическую телефонную станцию поступают вы- зовы со средней плотностью К вызовов в час. Считая, что число вызовов на любом участке времени распределено по закону Пуассона, найти вероят- ность того, что за две минуты на станцию поступит ровно три вызова. Решение. Среднее число вызовов за две минуты равно: 60 — 30 ’ По формуле (5.9.1) вероятность поступления ровно трех вызовов равна: fAV к Р (3°/ /30 3 - 1 • 2 • 3 ‘ Пример 2. В условиях предыдущего примера найти вероятность того, что за две минуты придет хотя бы один вызов.
114 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ (ГЛ. 5 Решение. По формуле (5.9.4) имеем: ^ = 1 — е~а = 1 — е'55. Пример 3. В тех же условиях найти вероятность того, что за две минуты придет не менее трех вызовов. Решение. По формуле (5.9.4) имеем: . я.-1-<р. + Р, + Л>-1-Д[1 + ^ + -1(А)г], Пример 4. На ткацком станке нить обрывается в среднехМ 0,375 раза в течение часа работы станка. Найти вероятность того, что за смену (8 ча- сов) число обрывов нити будет заключено в границах 2 и 4 (не менее 2 и не более 4 обрывов). Р е ш е н и е. Очевидно, а = 0,375 - 8 = 3; имеем: Р(2<Х<4) = Р2 + Рз + Л. По таблице 8 приложения при а = 3 Р2 = 0,224; Р3 = 0,224; Р4 = 0,168, Р(2< А" < 4) = 0,616. Пример 5. С накаленного катода за единицу времени вылетает в сред- нем q(t) электронов, где t — время, протекшее с начала опыта. Найти ве- роятность того, что за промежуток времени длительности т, начинающийся в момент f0, с катода вылетит "ровно т электронов. Решение. Находим среднее число электронов а, вылетающих с ка- тода за данный отрезок времени. Имеем: a — J* q (t) dt. По вычисленному а определяем искомую вероятность: Пример 6. Число осколков, попадающих в малоразмерную цель при заданном положении точки разрыва, распределяется по закону Пуассона. Средняя плотность осколочного поля, в котором оказывается цель при дан- ном положении точки разрыва, равна 3 оск./ж2. Площадь цели равна S = = 0,5 ж2. Для поражения цели достаточно попадания в нее хотя бы одного осколка. Найти вероятность поражения цели при данном положении точки разрыва. Решение. a = XS = l,5. По формуле (5.9.4) находим вероятность по- падания хотя бы одного осколка: я, = 1 — г-1'5 = 1—0,223 = 0,777. (Для вычисления значения показательной функции е~а пользуемся таблицей 2 приложения.)
5.9] ЗАКОН ПУАССОНА 115. Пример 7. Средняя , плотность болезнетворных микробов в одном- кубическом метре воздуха равна 100. Берется на пробу 2 дм3 воздуха. Найти вероятность того, что в нем будет обнаружен хотя бы один микроб. Решение. Принимая гипотезу о пуассоновском распределении числа микробов в объеме, находим: а = 0,1; /?! = !—«Г0-2» 1—0,819 я 0,18. Пример 8. По некоторой цели производится 50 независимых выстрелов Вероятность попадания в цель при одном выстреле равна 0,04. Пользуясь • предельным свойством биномиального распределения (формула (5.9.17)), найти приближенно вероятность того, что в цель попадет: ни одного снаряда, один снаряд, два снаряда. Решение. Имеем а = пр = 50 • 0,04 = 2. По таблице 8 приложения находим вероятности: Ро = 0,135; Л =0,271; Р2 = 0,271.
ГЛАВА 6 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ 6.1. Нормальный закон и его параметры Нормальный закон распределения (часто называемый законом Гаусса) играет исключительно важную роль в теории вероятностей и занимает среди других законов распределения особое положение. Это — наиболее часто встречающийся на практике закон распреде- ления. Главная особенность, выделяющая нормальный закон среди других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях. Можно доказать, что сумма достаточно большого числа незави- симых (или слабо зависимых) случайных величин, подчиненных каким угодно законам распределения (при соблюдении некоторых весьма нежестких ограничений), приближенно подчиняется нормальному за- кону, и это выполняется тем точнее, чем большее количество слу- чайных величин суммируется. Большинство встречающихся на прак- тике случайных величин, таких, например, как ошибки измерений, ошибки стрельбы и т. д., могут быть представлены как суммы весьма большого числа сравнительно малых слагаемых — элементарных оши- бок, каждая из которых вызвана действием отдельной причины, не зависящей от остальных. Каким бы 'законам распределения ни были подчинены отдельные элементарные ошибки, особенности этих рас- пределений в сумме большого числа слагаемых нивелируются, и сумма оказывается подчиненной закону, близкому к нормальному. Основное ограничение, налагаемое на суммируемые ошибки, состоит в том, чтобы они все равномерно играли в общей сумме относительно малую роль. Если это условие не выполняется и, например, одна из слу- чайных ошибок окажется по своему влиянию на сумму резко прева- лирующей над всеми другими, то закон распределения этой прева- лирующей ошибки наложит свое влияние на сумму и определит в основных чертах ее закон распределения. Теоремы, устанавливающие нормальный закон как предельный для суммы независимых равномерно малых случайных слагаемых, будут подробнее рассмотрены в главе 13.
6.11 НОРМАЛЬНЫЙ ЗАКОН И ЕГО ПАРАМЕТРЫ 117 Нормальный закон распределения характеризуется плотностью вероятности вида: 1 /(х) = —7=ге- 2” . (6.1.1) а У 2п Кривая распределения по нормальному закону имеет симметрич- ный холмообразный вид (рис. 6.1.1). 1 равная , соответствует точке Максимальная ордината кривой, f(x) х = т\ по мере удаления от точки т плотность распределения падает, и при х —> ± оо кривая асимптоти- чески приближается к оси абсцисс. Выясним смысл численных пара- метров т и а, входящих в выраже- ние нормального закона (6.1.1); до- кажем, что величина т есть не что иное, как математическое ожи- дание, а величина а — среднее Рис. 6.1.1. квадратическое отклонение вели- чины X. Для этого вычислим основные числовые характеристики ве- личины X — математическое ожидание и дисперсию. 00 М[Х]== f xf(x)dx —оо (г-д.)» 2°а dx. Применяя замену переменной х — т . а/2 “ ’ имеем: ОО АП*] = ^и f (а/2/dt = У те J Нетрудно убедиться, что первый из двух интервалов в формуле (6.1.2) равен нулю; второй представляет собой известный интеграл Эйлера — Пуассона: со оо J e-‘‘dt = 2 J e~t2dt = /7. (6.1.3) — оо О
118 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ (ГЛ в Следовательно, М[Х] = т, т. е. параметр т представляет собой математическое ожидание вели- чины X. Этот параметр, особенно в задачах стрельбы, часто назы- вают центром рассеивания (сокращенно—ц. р.). Вычислим дисперсию величины X: . < /• (х-т? D[X] = -±=r / (х — т)2е~ 2* dx, a у 2n J — oo Применив снова замену переменной имеем: D[X} = ^= Интегрируя по частям, получим: оо д2 D[X] = 4^ / t-2te~pdt = Уп J — 00 со оо — te~p | 4- У* e~pdt —со —оо Первое слагаемое в фигурных скобках равно нулю (так как при ^->оо убывает быстрее, чем возрастает любая степень /), вто- рое слагаемое по формуле (6.1.3) равно ]Лс, откуда D[Ar] = a2. Следовательно, параметр а в формуле (6.1.1) есть не что иное, как среднее квадратическое отклонение величины X. Выясним смысл параметров т и а нормального распределения. Непосредственно из формулы (6.1.1) видно, что центром симметрии распределения является центр рассеивания т. Это ясно из того, что при изменении знака разности (х— т) на обратный выражение (6.1.1) не меняется. Если изменять центр рассеивания /п, кривая распреде- ления будет смещаться вдоль оси абсцисс, не изменяя своей формы (рис. 6.1.2). Центр рассеивания характеризует положение распреде- ления на оси абсцисс. Размерность центра рассеивания—та же; Фго размерность слу- чайной величины X.
6 1] НОРМАЛЬНЫЙ ЗАКОН И ЕГО ПАРАМЕТРЫ 119 Параметр а характеризует не положение, а самую форму кривой распределения. Это есть характеристика рассеивания. Наибольшая ордината кривой распределения обратно пропорциональна а; при увеличении а максимальная ордината уменьшается. Так как площадь кривой распределения всегда должна оставаться равной единице, то при увеличении а кривая распределения становится более плоской, растягиваясь вдоль оси абсцисс; напротив, при уменьшении а кривая распределения вытягивается вверх, одновременно сжимаясь с боков, и становится более иглообразной. На рис. 6.1.3 показаны три нор- мальные кривые (/, II, III) при т = 0; из них кривая I соответствует самому большому, а кривая III — самому малому значению а. Изме- нение параметра а равносильно изменению масштаба кривой распре- деления— увеличению масштаба по одной оси и такому же умень- шению по другой. Размерность параметра а, естественно, совпадает с размерностью случайной величины X.
120 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ [ГЛ. 6 В некоторых курсах теории вероятностей в качестве характери- стики рассеивания для" нормального закона вместо среднего квадра- тического отклонения применяется так называемая мера точности. Мерой точности называется величина, обратно пропорциональная среднему квадратическому отклонению а: Размерность меры точности обратна размерности случайной величины. Термин «мера точности» заимствован из теории ошибок измере- ний: чем точнее измерение, тем больше мера точности. Пользуясь мерой точности Л, можно записать нормальный закон в виде: /(x) = -JU у те 6.2. Моменты нормального распределения Выше мы доказали, что математическое ожидание случайной вели- чины, подчиненной нормальному закону (6.1.1), равно т, а среднее квадратическое отклонение равно а. Выведем общие формулы для центральных моментов любого по- рядка. По определении^: 1S = У* (х — m)s f (х) Ях = (*-*>)* е 2** dx. Делая замену переменной х т получим: - f t’e-t'di. IS (6.2.1) Применим к выражению (6.2.1) формулу интегрирования по частям; ^ = _Ц2£. Г у те J —оо * —ОО —00
6.2]' МОМЕНТЫ НОРМАЛЬНОГО РАСПРЕДЕЛЕНИЯ 121 Имея в виду, что первый член внутри скобок равен нулю, получим: оо = — Г ts~2e~pdt. (6.2.2) — ОО Из формулы (6.2.1) имеем следующее выражение для р^2: р$-2 = — /* ts~2e~pdt. (6.2.3) у те J — оо Сравнивая правые части формул (6.2.2) и (6.2.3), видим, что они отличаются между собой только множителем ($—1)а2; следовательно, р, = (s — 1) °%-2- (6.2.4) Формула (6.2.4) представляет собой простое рекуррентное соот- ношение, позволяющее выражать моменты высших порядков через моменты низших порядков. Пользуясь этой формулой и имея в виду, что р0=1 т) и = 0, можно вычислить центральные моменты всех порядков. Так как = 0, то из формулы (6.2.4) следует, что все нечетные моменты нормального распределения равны нулю. Это, впрочем, непосредственно следует из симметричности нормального закона. Для четных 5 из формулы (6.2.4) вытекают следующие выражения для последовательных моментов: P2 = <J2; р,4 == За4; Рб= 15аб И Т. Д. Общая формула для момента s-го порядка при любом четном 5 имеет вид: р5 = ($-1)!!< где под символом ($—1)!! понимается произведение всех нечетных чисел от 1 до s— 1. Так как для нормального закона р3 = 0, то асимметрия его также равна нулю: $* = -§- = 0. Из выражения четвертого момента р4 = За4 имеем: () Нулевой момент любой случайной величины равен единице как мате- матическое ожидание нулевой степени этой величины.
122 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ [ГЛ 6 т. е. эксцесс нормального распределения равен нулю. Это и есте- ственно, так как назначение эксцесса — характеризовать сравнитель- ную крутость данного закона по сравнению с нормальным. 6.3. Вероятность попадания случайной величины, подчиненной нормальному закону, на заданный участок. Нормальная функция распределения Во многих задачах, связанных с нормально распределенными слу- чайными величинами, приходится определять вероятность попадания случайной величины X. подчиненной нормальному закону с пара- метрами т. о, на участок от а до {3. Для вычисления этой вероят- ности воспользуемся общей формулой Р(а<Х <P) = F(₽)-F(a), (6.3.1) где F (х) — функция распределения величины X, Найдем функцир распределения F (х) случайной величины X. распределенной по нормальному закону с параметрами /п, а. Плот- ность распределения величины X равна: 1 (x—mf = <6-32) Отсюда находим функцию распределения х х z /1 Р (х-т? f(x)dx = —^ / е~ ™ dx. (6.3.3) а у 2те ♦/ —оо — оо Сделаем в интеграле (6.3.3) замену переменной х — т __£ G и приведем его к виду: х—т (6-3'4’ — ОО Интеграл (6.3.4) не выражается через элементарные функции, но его можно вычислить через специальную функцию, выражающую определенный интеграл от выражения е~*2 или е 2 (так называемый интеграл вероятностей), для которого составлены таблицы. Суще- ствует много разновидностей таких функций, например: ЛГ Л &
е" 2 di. (6.3.5); 6.3] НОРМАЛЬНАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 123 и т. д. Какой из этих функций пользоваться — вопрос вкуса. Мы выберем в качестве такой функции Ф*(х) = -7к- Нетрудно видеть, что эта функция представляет собой не что иное, как функцию распределения для нормально распределенной случайной величины с параметрами т = 0, а=1. Условимся называть функцию Ф*(х) нормальной функцией распределения. В приложении (табл. 1) приведены таблицы зна- чений функции Ф*(х)1). Выразим функцию распределения (6.3.3) величины X с пара- метрами т и а через нормальную функцию распределения Ф* (х). Очевидно, ^(х) = Ф*(*у—). (6.3.6) Теперь найдем вероятность попадания случайной величины X на участок от а до р. Согласно формуле (6.3.1) Р(а<х<₽) = Ф*(^-)-Ф‘(^). (6.3.7) Таким образом, мы выразили вероятность попадания на участок случайной величины X, распределенной по нормальному закону с любыми параметрами, через стандартную функцию распределе- ния Ф*(х), соответствующую простейшему нормальному закону с параметрами 0,1. Заметим, что аргументы функции Ф* в фор- муле (6.3.7) имеют очень простой смысл: —-- есть расстояние от правого конца участка р до центра рассеивания, выраженное а — т в средних квадратических отклонениях; —--------такое же расстоя- ние для левого конца участка, причем это расстояние считается положительным, если конец расположен справа от центра рассеи- вания, и отрицательным, если слева. Как и всякая функция распределения, функция Ф*(х) обладает свойствами: 1. Ф*(—оо) = 0. 2. Ф* (-|-оо) = 1. 3. Ф*(х) — неубывающая функция. Кроме того, из симметричности нормального распределения с параметрами /п = 0, а=1 относительно начала координат сле- дует, что Ф* (— х) = 1 — Ф* (х). (6.3.8) 9 Для облегчения интерполяции в таблицах рядом со значениями функ- ции приведены ее приращения за один шаг таблиц А.
124 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ (ГЛ. в Пользуясь этим свойством, собственно говоря, можно было бы ограничить таблицы функции Ф*(х) только положительными значе- ниями аргумента, но, чтобы избежать лишней операции (вычитание из единицы), в таблице 1 приложения приводятся значения Ф*(х) Рис. 6.3.1. как для положительных, так и для отрицательных аргументов. На практике часто встречается задача вычисления вероятности по- падания нормально распределен- ной случайной величины на уча- сток, симметричный относительно центра рассеивания т. Рассмотрим такой участок длины 2/ (рис. 6.3.1). Вычислим вероятность попадания на этот участок по формуле (6.3.7): Р(тп — 1<Х </п~Н) = = — ф*(—IV \ ° / \ ° / (6.3.9) Учитывая свойство (6.3.8) функции Ф*(х) и придавая левой части формулы (6.3.9) более компактный вид, получим формулу для вероят- ности попадания случайной вели- чины, распределенной по нормаль- ному закону, на участок, симме- тричный относительно центра рас- сеивания: Р(.\Х — /я|<0 = 2Ф*(у)— 1. (6.3.10) Решим следующую задачу. От- ложим от центра рассеивания т последовательные отрезки дли- ной а (рис. 6.3.2) и вычислим ве- роятность попадания случайной величины X в каждый из них. Так как кривая нормального закона симметрична, достаточно отложить такие отрезки только в одну сторону. По формуле (6.3.7) находим: Р(т < X <т + о) = Ф*(1) — Ф*(0) = = 0,8413 —0,5000^0,341; Р (т + а < с х< ' т + 2а) = Ф» (2) — Ф* (1)« 0,136; Р (т 4- 2а < 'X < т -4- За) = Ф* (3) — Ф* (2) « 0,012; Р (ni Зс < 'Х< С m -j- 4а) = Ф* (4) — Ф* (3) 0,001. (6.3.11)
6.3] НОРМАЛЬНАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 125 Как видно из этих данных, вероятности попадания на каждый из следующих отрезков (пятый, шестой и т. д.) с точностью до 0,001 равны нулю. Округляя вероятности попадания в отрезки до 0,01 (до 1%). получим три числа, которые легко запомнить: 0,34; 0,14; 0,02. Сумма этих трех значений равна 0,5. Это значит, что для нор- мально распределенной случайной величины все рассеивание (с точ- ностью до долей процента) укладывается на участке т ± За. Это позволяет, зная среднее квадратическое отклонение и мате- матическое ожидание случайной величины, ориентировочно указать интервал её практически возможных значений. Такой способ оценки диапазона возможных значений случайной величины известен в мате- матической статистике под названием «правило трех сигма». Из правила трех сигма вытекает также ориентировочный способ опреде- ления среднего квадратического отклонения случайной величины: берут максимальное практически возможное отклонение от среднего и делят его на три. Разумеется, этот грубый прием может быть рекомен- дован, только если нет других, более точных способов определения а. Пример 1. Случайная величина X, распределенная по нормальному закону, представляет собой ошибку измерения некоторого расстояния. При измерении допускается систематическая ошибка в сторону завышения на 1,2 (м); среднее квадратическое отклонение ошибки измерения равно 0,8 (м). Найти вероятность того, что отклонение измеренного значения от истинного не превзойдет по абсолютной величине 1,6 (м). Решение. Ошибка измерения есть случайная величина X, подчинен- ная нормальному закону с параметрами т = 1,2 и а = 0,8. Нужно найти вероятность попадания этой величины на участок от а = —1,6 до р = + 1,6. По формуле (6.3.7) имеем: Р(-1.6 <X < 1,6)_Ф-(itjli)-«• (~'^'-2)- = ф* (0,5) — ф* (—3,5). Пользуясь таблицами функции Ф* (х) (приложение, табл. 1), найдем: Ф* (0,5) = 0,6915; Ф* (—3,5) = 0,0002, откуда Р (—1,6 < X < 1,6) = 0,6915 — 0,0002 = 0,6913 » 0,691. Пример 2. Найти ту же вероятность, что в предыдущем примере, но при условии, что систематической ошибки нет. Решение. По формуле (6.3.10), полагая I = 1,6, найдем: Р (| XI < 1,6) = 2Ф* -1 к 0,955. Пример 3. По цели, имеющей вид полосы (автострада), ширина кото- рой равна 20 м, ведется стрельба в направлении, перпендикулярном авто- страде. Прицеливание ведется по средней линии автострады. Среднее
126 НОРМАЛЬНЫЙ З’АКОН РАСПРЕДЕЛЕНИЯ (ГЛ 6 квадратическое отклонение в направлении стрельбы равно а = 8 м. Имеется систематическая ошибка в направлении стрельбы: недолет 3 м. Найти вероят- ность попадания в автостраду при одном выстреле. Решение. Выберем начало координат в любой точке на средней линии автострады (рис. 6.3.3) и направим ось абсцисс перпендикулярно автостраде. Попадание или непопадание снаряда в автостраду определяется значением только одной координаты точки падения X (другая координата Y нам без- различна). Случайная величина X распределена по нормальному закону с параметрами т —— 3, а = 8. Попадание снаряда в автостраду соответ- ствует попаданию величины X на участок от а = — 10 до р = + 10. При- меняя формулу (6.3.7), имеем: Р (— 10 < X < 10) = ф* ) — Ф* >= Ф* (1,625) — ф *(— 0,875) « 0,757. Пример 4. Имеется случайная величина X,’нормально распределенная, с центром рассеивания т (рис. 6.3.4) и некоторый участок (а, ₽) оси абсцисс. Каково должно быть среднее квадратическое отклонение а случайной вели- чины X для того, чтобы вероятность попадания р на участок (а, §) дости- гала максимума? Решение. Имеем: р = Р (а < X < ₽) = Ф* (-₽-—2L) - Ф* ? <’)• Продифференцируем эту функцию величины а: но Ф* (л) = ~^= I е 2 dt. — ОО
6.4] ВЕРОЯТНОЕ (СРЕДИННОЕ) ОТКЛОНЕНИЕ 127 Применяя правило дифференцирования дящей в его предел, получим: интеграла по переменной, вхо- Аналогично Для нахождения экстремума положим: . (д- ffl)2 _ Г - . ?' С0 = - ../гг-Л (a —w)g 212 — (3— rn)e 2’’ (6.3.12) о2J 2л I } При о = оо это выражение обращается в нуль и вероятность р достигает минимума. Максимум р получим из условия ь (*- /и)2 fi’)- (а — т)е~ 2,2 — (3 — т)е w ' =0. (6.3.13) Уравнение (6.3.13) можно решить численно или графически. 6.4. Вероятное (срединное) отклонение В ряде областей практических применений теории вероятностей (в частности, в теории стрельбы) часто, наряду со средним квадрати- ческим отклонением, пользуются еще одной характеристикой рассеи- вания, так называемым вероятным, или срединным, отклонением. Вероятное отклонение обычно обозначается буквой Е (иногда В). Вероятным {срединным) отклонением случайной величины X, распределенной по нормальному закону, называется половина длины участка, симметричного относительно центра рассеивания, вероятность попадания в который равна половине. Геометрическая интерпретация вероятного отклонения показана на рис. 6.4.1. Вероятное отклонение Е— это половина длины участка оси абсцисс, симметричного относительно точки т, на кото- рый опирается половина площади кривой распределения. Поясним смысл термина «срединное отклонение» или «срединная ошибка», которым часто пользуются в артиллерийской практике вместо «вероятного отклонения».
128 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ (ГЛ. в Рассмотрим случайную величину X, распределенную по нормаль- ному закону. Вероятность того, что она отклонится от центра рас- сеивания т меньше чем на Е, по определению вероятного откло- нения Е, равна X: . р. 1 R 2 ^([А— /П| < = • (6.4.1) Вероятность того, что она отклонится от т больше чем на f, тоже равна Р (\Х — т\> Е) = ^. Таким образом, при большом числе опытов в среднем половина значений случайной величины X отклонится от т больше чем на Е, а половина — меньше. Отсюда и термины «срединная ошибка». «срединное отклонение». Очевидно, вероятное отклонение, как характеристика рассеивания, должно находиться в прямой зависимости от среднего квадратиче- ского отклонения а. Установим эту зависимость. Вычислим ве- роятность события | X — т | < <Е в уравнении (6.4.1) по формуле (6.3.10). Имеем: Р(\Х — т|<Е) = = 2Ф-(А)_1=|. Отсюда ф‘(т) = т=0’75- <6-4-2) По таблицам функции Ф*(х) можно найти такое значение аргумента х, при котором юна равна 0,75. Это значение аргумента приближенно равно 0,674; отсюда — = 0,674; Е = 0,674а. а (6.4.3) Таким образом, зная значение а, можно сразу найти пропорцио- нальное ему значение Е. Часто пользуются еще такой формой записи этой зависимости: Е’ = руг2а, (6.4.4) где р — такое значение аргумента, при котором одна из форм инте- грала вероятностей — так называемая функция Лапласа Ф(х) = -^и f e-{,dt
6.4] ВЕРОЯТНОЕ (СРЕДИННОЕ) ОТКЛОНЕНИЕ 129 — равна половине. Численное значение величины р приближенно равно 0,477. В настоящее время вероятное отклонение, как характеристика рассеивания, все больше вытесняется более универсальной характе- ристикой а. В ряде областей приложений теории вероятностей она сохраняется лишь по традиции. Если в качестве характеристики рассеивания принято вероятное отклонение £, то плотность нормального распределения записывается в виде: = (6А.5) Еу к а вероятность попадания на вается в виде: Р(а < х < ₽)=. (6.4.6) где - Ф(х) = -^ Т e~‘2dt (6.4.7) У -re J f 0 — так называемая приведен- ная функция Лапласа. Сделаем подсчет, аналогич- ный выполненному в преды- дущем п° для среднего квадратического отклонения а: отложим от центра рассеивания т последовательные отрезки длиной в одно вероятное отклонение Е (рис. 6.4.2) и подсчитаем вероятности попа- дания в эти отрезки с точностью до 0,01. Получим:' Р(т<Х< т±Е)ж 0,25; Р(т 4- Е < X < т + 2Е) « 0,16; Р(т + 2Е < X < т 4- ЗЕ) « 0,07; Р(т 4- ЗЕ < X < т 4- 4Е) « 0,02. Отсюда видно, что с точностью до 0,01 все значения нормально распределенной случайной величины укладываются на участке т ± 4Е. Пример. Самолет-штурмовик производит обстрел колонны войск противника, ширина которой равна 8 м. Полет — вдоль колонны, прицели- вание— по средней линии колонны; вследствие скольжения имеется систе- матическая ошибка: 2 м вправо по направлению полета. Главные вероятные отклонения: по направлению полета = 15 ж, в боковом направлении 9-3015
130 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ , [ГЛ. 6 Вб —5 м. Не имея в своем распоряжении никаких таблиц интеграла вероятностей, а зная только числа: 25%, 16%, 7%, 2%, оценить грубо-приближенно вероятность попадания в колонну при одном выстреле и вероятность хотя бы одного попадания при трех независимых выстрелах. Решение. Для решения задачи достаточно рассмотреть одну коорди- нату точки попадания — абсциссу X в направлении, перпендикулярном колонне. Эта абсцисса распределена по нормальному закону с центром рассеивания т = 2 и вероятным’ отклонением В$ = £ = 5 (ж). Отложим мысленно от центра рассеивания в ту и другую сторону отрезки длиной в 5 ж. Вправо от центра рассеивания цель занимает участок 2 ж, который составляет 0,4 вероятного отклонения. Вероятность попадания на этот участок приближенно равна: 0,4-25% =0,1. Влево от центра рассеивания цель занимает участок 6 м. Это — целое вероятное отклонение (5 ж), вероятность попадания в которое равна 25% плюс часть длиной 1 м следующего (второго от центра) вероятного откло- нения, вероятность попадания в которое равна 16%. Вероятность попадания в часть длиной 1 м приближенно равна: 1-16% = 0,03. о Таким образом, вероятность попадания в колонну приближенно равна: 0,1 + 0,25 + 0,03 = 0,38. Вероятность хотя бы одного попадания при трех выстрелах равна: ^1 = 1- (1 — 0,38)3 «0,76.
ГЛАВА 7 ОПРЕДЕЛЕНИЕ ЗАКОНОВ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН НА ОСНОВЕ ОПЫТНЫХ ДАННЫХ 7.1, Основные задачи математической статистики Математические законы теории вероятностей не являются беспред- метными абстракциями, лишенными физического содержания; они представляют собой математическое выражение реальных закономер- ностей, фактически существующих в массовых случайных явлениях природы. До сих пор, говоря о законах распределения случайных величин, мы не затрагивали вопроса о том, откуда берутся, на каком осно- вании устанавливаются эти законы распределения. Ответ на вопрос вполне определенен — в основе всех этих характеристик лежит опыт; каждое исследование случайных явлений, выполняемое методами тео- рии вероятностей, прямо или косвенно опирается на эксперименталь- ные данные. Оперируя такими понятиями, как события и их вероят- ности, случайные величины, их законы распределения и числовые характеристики, теория вероятностей дает возможность теоретиче- ским путем определять вероятности одних событий через вероятности других, законы распределения и числовые характеристики одних случайных величин через законы распределения и числовые характе- ристику других. /Такие косвенные методы позволяют значительно экономить время и средства, затрачиваемые на эксперимент, но отнюдь не исключают самого эксперимента. Каждое исследование в области случайных явлений, как бы отвлеченно оно ни было, корнями своими всегда уходит в эксперимент, в опытные данные, в систему наблюдений. Разработка методов регистрации, описания и анализа статисти- ческих экспериментальных данных, получаемых в результате наблю- дения массовых случайных явлений, составляет предмет специальной науки — математической статистики. Все задачи математической статистики касаются вопросов обра- ботки наблюдений над массовыми случайными явлениями, но в зави- симости от характера решаемого практического вопроса и от объема
132 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 имеющегося экспериментального материала эти задачи могут прини- мать ту или иную форму. Охарактеризуем вкратце некоторые типичные задачи математи- ческой статистики, часто встречаемые на практике. 1. Задача определения закона распределения случайной величины (или системы случайн-ых величин) п-о статистическим данным Мы уже указывали, что закономерности, наблюдаемые в массо- вых случайных явлениях, проявляются тем точнее и отчетливее, чем больше объем статистического материала. При обработке обширных* по своему объему статистических данных часто возникает вопрос об определении законов распределения тех или иных случайных величин. Теоретически при достаточном количестве опытов свойственные этим случайным величинам закономерности будут осуществляться сколь угодно точно. На практике нам всегда приходится иметь дело с огра- ниченным количеством экспериментальных данных; в сбязи с этим результаты наших наблюдений и Их обработки всегда содержат боль- ший или меньший элемент случайности. Возникает вопрос о том, какие черты наблюдаемого явления относятся к постоянным, устойчивым и действительно присущи ему, а какие являются случайными и про- являются в данной серии наблюдений только за счет ограниченного объема экспериментальных данных. Естественно, к методике обра- ботки экспериментальных данных следует предъявить такие требо- вания, чтобы она, ho возможности, сохраняла типичные, характерные черты наблюдаемого явления и отбрасывала все несущественное, второстепенное, связанное с недостаточным объемом опытного мате- риала. В связи с этим возникает характерная для математической статистики задача сглаживания или выравнивания стати- стических данных, представления их в наиболее компактном виде с помощью простых аналитических зависимостей. 2. Задача проверки правдоподобия гипотез Эта задача тесно связана с предыдущей; при решении такого рода задач мы обычно не располагаем настолько обширным стати- стическим материалом, чтобы выявляющиеся в нем статистические закономерности были в достаточной мере свободны от элементов случайности. Статистический материал может с большим или меньшим правдоподобием подтверждать или не подтверждать справедливость той или иной гипотезы. Например, может возникнуть такой вопрос: согласуются ли результаты эксперимента с гипотезой о том, что данная случайная величина подчинена закону распределения Г(х)? Другой подобный вопрос: указывает ли наблюденная в опыте тен-
7.2] СТАТИСТИЧЕСКАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 133 денция к зависимости между двумя случайными величинами на нали- чие действительной объективной зависимости между ними или же она объясняется случайными причинами, связанными с недостаточным объемом наблюдений? Для решения подобных вопросов математи- ческая статистика выработала ряд специальных приемов. 3. Задача нахождения неизвестных параметров распределения Часто при обработке статистического материала вовсе не возни- кает вопрос об определении законов распределения исследуемых слу- чайных величин. Обыкновенно это бывает связано с крайне недоста- точным объемом экспериментального материала. Иногда же характер закона распределения качественно известен до опыта, из теоретических соображений; например, часто можно утверждать заранее, что случай- ная величина подчинена нормальному закону. Тогда возникает более узкая задача обработки наблюдений — определить только некоторые параметры (числовые характеристики) случайной величины или системы случайных величин. При небольшом числе опытов задача более или менее точного определения этих параметров не может быть решена; в этих случаях экспериментальный материал содержит в себе неиз- бежно значительный элемент случайности; поэтому случайными ока- зываются и все параметры, вычисленные на основе этих данных. В таких условиях может быть поставлена только задача об опреде- лении так называемых «оценок» или «подходящих значений» для искомых параметров, т. е. таких приближенных значений, которые при массовом применении приводили бы в среднем к меньшим ошиб- кам, чем всякие другие. С задачей отыскания «подходящих значений» числовых характеристик тесно связана задача оценки их точности и надежности. С подобными задачами мы встретимся в главе 14. Таков далеко не полный перечень основных задач математиче- ской статистики. Мы перечислили только те из них, которые наиболее важны для нас по своим практическим применениям. В настоящей главе мы вкратце познакомимся с некоторыми, наиболее элементар- ными задачами математической статистики и с методами их решения. 7.2. Простая статистическая совокупность. Статистическая функция распределения Предположим, что изучается некоторая случайная величина X, закон распределения которой в точности неизвестен, и требуется определить этот закон из опыта или проверить экспериментально гипотезу о том, что величина X подчинена тому или иному закону. С этой целью над случайной величиной X производится ряд незави- симых опытов (наблюдений). В каждом из этих опытов случайная
134 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 величина X принимает определенное значение. Совокупность наблю- денных значений величины и представляет собой первичный стати- стический материал, подлежащий обработке, осмыслению и научному анализу. Такая совокупность называется «простой статистической совокупностью» или «простым статистическим рядом». Обычно про- стая статистическая совокупность оформляется в виде таблицы с од- ним входом, в первом столбце которой стоит номер опыта Z, а во втором — наблюденное значение случайной величины. Пример 1. Случайная величина р— угол скольжения самолета в мо- мент сбрасывания бомбы !). Произведено 20 бомбометаний, в каждом из ко- торых зарегистрирован угол скольжения р в тысячных долях радиана. Результаты наблюдений сведены в простой статистический ряд: 1 i 1 1 1 —20 8 —30 15 1 —10 2 -60 9 120 16 20 3 —10 10 —100 17 30 4 30 11 —80 18 —80 5 60 12 20 19 60 6 70 13 40 20 70 7 —10 14 —60 Простой статистический ряд представляет собой первичную форму записи статистического материала и может быть обработан различными способами. Одним из способов Такой обработки является построение статистической функции распределения случайной величины. Статистической функцией распределения случайной вели- чины X называется частота события X <х в данном стати- стическом материале-. F*(x) = P*(Ar<x). (7.2.1) Для того чтобы найти значение. статистической функции распре- деления при данном х, достаточно подсчитать число опытов, в ко- торых величина X приняла значение, меньшее чем х, и разделить на общее число п произведенных опытов. Пример 2. Построить статистическую функцию распределения для случайной величины р, рассмотренной в предыдущем примере* 2). ’) Под углом скольжения подразумевается угол, составленный вектором скорости и плоскостью симметрии самолета. 2) Здесь и во многих случаях далее, при рассмотрении конкретных прак- тических примеров, мы не будем строго придерживаться правила — обозна- чать случайные величины большими буквами, а их возможные значения — соответствующими малыми буквами. Если это не может привести к недора- зумениям, мы в ряде случаев будем обозначать случайную величину и ее возможное значение одной и той же буквой.
7.21 СТАТИСТИЧЕСКАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 135 Решение. Так как наименьшее наблюденное значение величины равно —100, то F (—100) = 0. Значение —100 наблюдено один раз, его частота равна следовательно, в точке —100 F* (£) имеет скачок, равный . В промежутке от —100 до — 80 функция F* (?) имеет значение^; в точке 2 —80 происходит скачок функции F* (р) на -gg* > так как значение — 80 на- блюдено дважды, и т. д. График статистической функции распределения величины представлен на рис. 7.2.1. Статистическая функция распределения любой случайной вели- чины — прерывной или непрерывной — представляет собой прерывную ступенчатую функцию, скачки которой соответствуют наблюденным значениям случайной величины и по величине равны частотам этих значений. Если каждое отдельное значение случайной величины X было наблюдено только один раз, скачок статистической функции распределения в каждом наблюденном значении равен где л — число наблюдений. При увеличении числа опытов п, согласно теореме Бернулли, при любом х частота события X < х приближается (сходится по вероят- ности) к вероятности этого события. Следовательно, при увеличе- нии п статистическая функция распределения F* (х) приближается (сходится по вероятности) к подлинной функции распределения F (х) случайной величины X. Если X — непрерывная случайная величина, то при увеличении числа наблюдений, п число скачков функции F*(x) увеличивается, самые скачки уменьшаются и график функции F*(x) неограниченно приближается к плавной кривой F(x)— функций распределения ве- личины X.
136 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ 7 В принципе построение статистической функции распределения уже решает задачу описания экспериментального материала. Однако при большом числе опытов п построение F* (х) описанным выше способом весьма трудоемко. Кроме того, часто бывает удобно — в смысле наглядности — пользоваться другими характеристиками ста- тистических распределений, аналогичными не функции распределе- ния F(x), а плотности /(х). С такими способами описания стати- стических данных мы познакомимся в следующем параграфе. 7.3. Статистический ряд. Гистограмма При большом числе наблюдений (порядка сотен) простая стати- стическая совокупность перестает быть удобной формой записи статистического материала — она становится слишком громоздкой и мало наглядной. Для придания ему большей компактности и на- глядности статистический материал должен быть подвергнут до- полнительной обработке — строится так называемый, «статистиче- ский ряд». Предположим, что в нашем распоряжении результаты наблюдений над непрерывной случайной величиной X, оформленные в виде про- стой статистической совокупности. Разделим весь диапазон наблю- денных значений X на интервалы или «разряды» и подсчитаем ко- личество значений mlt приходящееся на каждый Z-й разряд. Это число разделим на общее число наблюдений п и найдем частоту, соответ- ствующую данному разряду: = (7.3.1) Сумма частот всех разрядов, очевидно, должна быть равна единице. Построим таблицу, в которой приведены разряды в порядке их расположения вдоль оси абсцисс и соответствующие частоты. Эта таблица называется статистическим рядом: h | *Г. | х2; ха • • • Х[\ хих • • • * Pi 1 р> • • • Pl • • • р'и Здесь 7Z — обозначение Z-ro разряда; хр х/+1 — его границы; р* — соответствующая частота; к— число разрядов.
7.3] СТАТИСТИЧЕСКИЙ РЯД. ГИСТОГРАММА 137 Пример 1. Произведено 500 измерений боковой ошибки наводки при стрельбе с самолета по наземной цели. Результаты измерений (в тысячных долях радиана) сведены в статистический ряд: h —4; —3 -3; —2 —2; — 1 -1; 0 0; 1 1; 2 2; 3 3; 4 mi 6 25 72 133 120 88 46 10 Pl 0,012 0,050 0,144 0,266 0,240 0,176 0,092 0,020 Здесь Ц обозначены интервалы значений ошибки наводки; т/ — число наб- людении в данном интервале, pt = — соответствующие частоты. При группировке наблюденных значений случайной величины по разрядам возникает вопрос о том, к какому разряду отнести значе- ние, находящееся в точности на границе двух разрядов. В этих случаях можно рекомендовать (чисто условно) считать данное зна- чение принадлежащим в равной мере к обоим разрядам и прибав- лять к числам т1 того и другого разряда по Число разрядов, на которые следует группировать статистический материал, не должно быть слишком большим (тогда ряд распреде- ления становится невыразительным, и частоты в нем обнаруживают незакономерные колебания); с другой стороны, оно не должно быть слишком малым (при малом числе разрядов свойства распределения описываются статистическим рядом слишком грубо). Практика пока- зывает, что в большинстве случаев рационально выбирать число разрядов порядка 10 — 20. Чем богаче и однороднее статистический материал, тем большее число разрядов можно выбирать при состав- лении статистического ряда. Длины разрядов могут быть как одина- ковыми, так и различными. Проще, разумеется, брать их одинаковы- ми. Однако при оформлении данных о случайных величинах, рас- пределенных крайне неравномерно, иногда бывает удобно выбирать в области наибольшей плотности распределения разряды более узкие, чем в области малой плотности. Статистический ряд часто оформляется графически в виде так называемой гистограммы. Гистограмма строится следующим обра- зом. По оси абсцисс откладываются разряды, и на каждом из раз- рядов как их основании строится прямоугольник, плошадь которого равна частоте данного разряда. Для построения гистограммы нужно ”астоту каждого разряда разделить на его длину и полученное число взять в качестве высоты прямоугольника. В случае равных по длине
138 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 разрядов высоты прямоугольников пропорциональны соответствующим частотам. Из способа построения гистограммы следует, что полная площадь ее равна единице. В качестве примера можно привести гистограмму для ошибки наводки, построенную по данным статистического ряда, рассмотрен- ного в примере 1 (рис. 7.3.1). Очевидно, при увеличении числа опытов можно выбирать все более и более мелкие разряды; при этом гистограмма будет все более приближаться к некоторой кривой, ограничивающей площадь, равную единице. Нетрудно убедиться, что эта кривая представляет собой график плотности распределения величины X. Пользуясь данными статистического ряда, можно приближенно построить и статистическую функцию распределения величины X. Построение точной статистической функции распределения с несколь- кими сотнями скачков во всех наблюденных значениях X слишком трудоемко и себя не оправдывает. Для практики обычно достаточно построить статистическую функцию распределения по нескольким точкам. В качестве этих точек удобно взять границы xv х2, ... разрядов, которые фигурируют в статистическом ряде. Тогда, очевидно, /7*(х1) = 0; Р\х2) = р\\ Р*(хъ) = р\+рЪ k-1 Г{ХЬ)=^Р^ (7.3.2)
7.4] ХАРАКТЕРИСТИКИ СТАТИСТИЧЕСКОГО РАСПРЕДЕЛЕНИЯ 139 Соединяя полученные точки ломаной линией или плавной кривой, получим приближенный график статистической функции распреде- ления. Пример 2. Построить приближенно статистическую функцию распре- деления ошибки наводки по данным статистического ряда примера 1. Решен ие. Применяя формулы (7.3.2), имеем: F* (—4) = 0; Л* (—3) = 0,012; F* (—2) = 0,012 + 0,050 = 0,062; Л*(—1) = 0,206; (0) = 0,472; F*(l) = 0,712; F*(2) = 0,888; Г* (3) = 0,980; Г* (4) = 1,000. Приближенный график статистической функции распределения дан на рис. 7.3.2. 7.4. Числовые характеристики статистического распределения В главе 5 мы ввели в рассмотрение различные числовые харак- теристики случайных величин: математическое ожидание, дисперсию, начальные и центральные моменты различных порядков. Эти число- вые характеристики играют большую роль в теории вероятностей. Аналогичные числовые характеристики существуют и для статисти- ческих распределений. Каждой числовой характеристике случайной величины X соответствует ее статистическая аналогия. Для основной характеристики положения —математического ожидания случайной величины—такой аналогией является среднее арифметическое наблю- денных значений случайной величины: п где xt— значение случайной величины, наблюденное в /-м опыте, п — число опытов.
140 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 Эту характеристику мы будем в дальнейшем называть стати- стическим средним случайной величины. Согласно закону больших чисел, при неограниченном увеличении числа опытов статистическое среднее приближается (сходится по ве- роятности) к математическому ожиданию. При достаточно большом п статистическое среднее может быть принято приближенно равным математическому ожиданию. При ограниченном числе опытов стати- стическое среднее является случайной величиной, которая, тем не менее, связана с математическим ожиданием и может дать о нем известное представление. Подобные статистические аналогии существуют для всех число- вых характеристик. Условимся в дальнейшем эти статистические аналогии обозначать теми же буквами, что и соответствующие чис- ловые характеристики, но снабжать их значком *. Рассмотрим, например, дисперсию случайной величины. Она пред- ставляет собой математическое ожидание случайной величины Л2 = (Х —/и,)2: D [XI = М [X*] = М[(Х — тх)2]. (7.4.2) Если в этом выражении заменить математическое ожидание его статистической аналогией — средним арифметическим, мы получим статистическую дисперсию случайной величины Х\ D-1X| = .Iz'—--------- (7.4.3) где тх = М*[Х] — статистическое среднее. Аналогично определяются статистические начальные и централь- ные моменты любых порядков: 2-1 < |Х] =-*=£-, (7.4.4) п £[Х\ = ^—п-----------. (7.4.5) Все эти определения полностью аналогичны данным в главе 5 определениям числовых характеристик случайной величины, с той разницей, что в них везде вместо математического ожидания фигу- рирует среднее арифметическое. При увеличении числа наблюдений, очевидно, все статистические характеристики будут сходиться по вероятности к соответствующим математическим характеристикам и при достаточном п могут быть приняты приближенно равными им.
7.41 ХАРАКТЕРИСТИКИ СТАТИСТИЧЕСКОГО РАСПРЕДЕЛЕНИЯ 141 Нетрудно доказать, что для статистических начальных и цен- тральных моментов справедливы те же свойства, которьГе были выве- дены в главе 5 для математических моментов. В частности, стати- стический первый центральный момент всегда равен нулю: п п 2(х< —тхУ 2*1 —=-4—тх==тх—т'=0- •Соотношения между центральными и начальными моментами также сохраняются: п 2(^-<)г ^D*x = ^—n--------= п п 2*1 2*/ = —2^^+W=<-(<)2 (7Л>6) и т. д. При очень большом количестве опытов вычисление характеристик по формулам (7.4.1) — (7.4.5) становится чрезмерно громоздким, и можно применить следующий прием: воспользоваться теми же разрядами, на которые был расклассифицирован статистический материал для построения статистического ряда или гистограммы, и считать приближенно значение случайной величины в каждом разряде постоянным и равным среднему значению, которое выступает в роли «представителя» разряда. Тогда статистические числовые характе- ристики будут выражаться приближенными формулами: k т' — М*[*] = 5 х.р* (7.4.7) / = 1 D* = D* [X] = 2 ft - <)2 Рр (7-4.8) <W=2x>;. (7.4.9) н: w = 2 pi- <7-4-1 °) где х,— «представитель» f-го разряда, р*— частота /-го разряда, k— число разрядов. Как видно, формулы (7.4.7) — (7.4.10) полностью аналогичны формулам псп° 5.6 и 5.7, определяющим математическое ожидание, дисперсию, начальные и центральные моменты прерывной случайной
142 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 величины X, с той только разницей, что вместо' вероятностей в них стоят частоты р*> вместо математического ожидания тх— ста- тистическое среднее /п*, вместо числа возможных значений случайной величины — число разрядов. х В большинстве руководств по теории вероятностей и математической статистике при рассмотрении вопроса о статистических аналогиях для харак- теристик случайных величин применяется терминология, несколько отличная от принятой в настоящей книге, а именно, статистическое среднее именуется «выборочным средним», статистическая дисперсия—«выборочной дисперсией» и т. д. Происхождение этих терминов следующее. В статистике, особенно сельскохозяйственной и биологической, часто приходится исследовать распре- деление того или иного признака для весьма большой совокупности индиви- дуумов, образующих статистический коллектив (таким признаком может быть, например, содержание белка в зерне пшеницы, вес того же зерна, длина или вес тела какого-либо из группы животных и т. д.). Данный признак является случайной величиной, значение которой от индивидуума к индивидууму меняется. Однако, для того, чтобы составить представление ©^распределении этой случайной величины или о ее важнейших характери- стиках, нет необходимости обследовать каждый индивидуум данной обширной совокупности; можно обследовать некоторую выборку достаточно боль- шого объема для того, чтобы в ней были выявлены существенные черты изучаемого распределения. Та обширная совокупность, из которой произво- дится выборка, носит в статистике название генеральной совокупности. При этом предполагается, что число членов (индивидуумов) N в генеральной совокупности весьма велико, а число членов п в выборке ограничено. При достаточно большом 7V оказывается, что свойства выборочных (статисти- ческих) распределений и характеристик практически не зависят от №, отсюда естественно вытекает математическая идеализация, состоящая в том, что генеральная совокупность, из которой осуществляется выбор, имеет беско- нечный объем. При этом отличают точные характеристики (закон распределе- ния, математическое ожидание, дисперсию и т. д.), относящиеся к генераль- ной совокупности, от аналогичных им «выборочных» характеристик. Выбо- рочные характеристики отличаются от соответствующих характеристик генеральной совокупности за счет ограниченности объема выборки п; при неограниченном увеличении п, естественно, все выборочные характери- стики приближаются (сходятся по вероятности) к соответствующим характе- ристикам генеральной совокупности. Часто возникает вопрос о том, каков должен быть объем выборки п для того, чтобы по выборочным характеристи- кам можно было с достаточной точностью судить о неизвестных характерис- тиках генеральной совокупности или о том, с какой степенью точности при заданном объеме выборки можно судить о характеристиках генеральной сово- купности. Такой метопический прием, состоящий в параллельном рассмотрении бесконечной генеральной совокупности, из которой осуществляется выбор, и ограниченной по объему выборки, является совершенно естественным в тех областях статистики, где фактически приходится осуществлять выбор из весьма многочисленных совокупностей индивидуумов. Для практических задач, связанных с вопросами стрельбы и вооружения, гораздо более характерно другое положение, когда над исследуемой случайной величиной (или системой случайных величин) производится ограниченное число оплов с целью определить те или иные характеристики этой величины, на)|имер, когда с целью исследования закона рассеивания при стрельбе производится некоторое количество выстрелов, или с целью исследования ошибки наводки производится серия опытов, в каждом из которых ошибка наводки регистрируется с помощью фотопулемета, и т. д. При этом ограни-
7.5] ВЫРАВНИВАНИЕ СТАТИСТИЧЕСКИХ РЯДОВ 143 ченное число опытов связано не с трудностью регистрации и обработки, а со сложностью и дороговизной каждого отдельного опыта. В этом случае с известной натяжкой можно также произведенные п опытов мысленно рас- сматривать как «выборку» из некоторой чисто условной «генеральной сово- купности», состоящей из бесконечного числа возможных или мыслимых опытов, которые можно было бы произвести в данных условиях. Однако искусственное введение такой гипотетической «генеральной совокупности» при данной постановке вопроса не вызвано необходимостью и вносит в рас- смотрение вопроса, по существу, излишний элемент идеализации, не выте- кающий из непосредственной реальности задачи. Поэтому мы в данном курсе не пользуемся терминами «выборочное среднее», «выборочная дисперсия», «выборочные характеристики» и т. д., заменяя их терминами «статистическое среднее», «статистическая дисперсия», «статистические характеристики». 7.5. Выравнивание статистических рядов Во всяком статистическом распределении неизбежно присутствуют элементы случайности, связанные с тем, что число -наблюдений ограничено, что произведены именно те, а не другие опыты, давшие именно те, а не другие результаты. Только при очень большом числе наблюдений эти элементы случайности сглаживаются, и случайное явление обнаруживает в полной мере присущую ему закономерность. На практике мы почти никогда не имеем дела с , таким большим числом наблюдений и вынуждены считаться с тем, что любому ста- тистическому распределению свойственны в большей или меньшей, мере черты случайности. Поэтому при обработке статистического, материала часто приходится решать вопрос о том, как подобрать для данного статистического ряда теоретическую кривую распределения, выражающую лишь существенные черты статистического материала, но не случайности, связанные с недостаточным объемом эксперимен- тальных данных. Такая задача называется задачей выравнивания (сглаживания) статистических рядов. Задача выравнивания заключается в том, чтобы подобрать теоре- тическую плавную кривую распределения, с той , или иной точки зрения наилучшим образом описывающую данное статистическое рас- пределение (рис. 7.5.1). Задача о наилучшем выравнивании статистических рядов, как и вообще задача о наилучшем аналйтическом представлении эмпири- ческих функций, есть задача в значительной мере неопределенная, и решение ее зависит от того, что условиться считать «йаилучшим». Например, при сглаживании эмпирических зависимостей, очень часто исходят из так называемого принципа или метода наименьших квадратов (см. п° 14.5), считая, что наилучшим приближением к эмпи- рической зависимости в данном классе функций является такое, при котором сумма квадратов отклонений обращается в минимум. При этом вопрос о том, в каком именно классе функций следует искать наи- лучшее приближение, решается уже не из математических сообра-
144 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 жений, а из соображений, связанных с физикой решаемой задачи, с учетом характера полученной эмпирической кривой и степени точ- ности произведенных наблюдений. Часто принципиальный характер функции, выражающей исследуемую зависимость, известен заранее из теоретических соображений, из опыта же требуется получить лишь некоторые численные параметры, входящие в выражение функции; именно эти параметры подбираются с помощью метода наименьших квадратов. Аналогично обстоит дело и с задачей выравнивания статистиче- ских рядов. Как правило, принципиальный вид теоретической кривой выбирается заранее из соображений, связанных с существом задачи, Рис. 7.5.1. а в некоторых случаях просто с внешним видом статистического распределения. Аналитическое выражение выбранной кривой распре- деления зависит от некоторых параметров; задача выравнивания ста- тистического ряда переходит в задачу рационального выбора тех значений параметров, при которых соответствие между статистиче- ским и теоретическим распределениями оказывается наилучшим. Предположим, например, что исследуемая величина X есть ошибка измерения, возникающая в результате суммирования воздействий множества независимых элементарных ошибок; тогда из теоретических соображений можно считать, что величина X подчиняется нормаль- ному закону: Cr - m )а /(х) = -А=г ™ , (7.5.1) а У 2« и задача выравнивания переходит в задачу о рациональном выборе параметров т и о в выражении (7.5.1). Бывают случаи, когда заранее известно, что величина X распре- деляется статистически приблизительно равномерно на некотором
7.5] ВЫРАВНИВАНИЕ СТАТИСТИЧЕСКИХ РЯДОВ 145 интервале; тогда можно поставить задачу о рациональном выборе параметров того закона равномерной плотности /(*) = при а < х < р, О при х < а или х > р, которым можно наилучшим образом заменить (выровнять) заданное- статистическое распределение. Следует при этом иметь в виду, что любая аналитическая функ- ция /(х), с помощью которой выравнивается статистическое распреде- ление, должна обладать основными свойствами плотности распределения: /(х)>0; ОО J f(x)dx — 1. — ОО (7.5.2) Предположим, что, исходя из тех или иных соображений, нами выбрана функция/(х), удовлетворяющая условиям (7.5.2), с помощью которой мы хотим выровнять данное статистическое распределение; в выражение этой функции входит несколько параметров а, Ь, ...; требуется подобрать эти параметры так, чтобы функция /(х) наи- лучшим образом описывала данный статистический материал. Один из методов, применяемых для решения этой задачи, — это так назы- ваемый метод моментов. Согласно методу моментов, параметры a, Ь, ... выбираются с таким расчетом, чтобы несколько важнейших числовых характеристик (моментов) теоретического распределения были равны соответствующим статистическим характеристикам. Например, если теоретическая кри- вая /(х) зависит только от двух параметров а и Ь> эти параметры выбираются так, чтобы математическое ожидание.тх и дисперсия Dx теоретического распределения совпадали с соответствующими стати- стическими характеристиками тл и Если кривая f (х) зависит от трех параметров, можно подобрать их так, чтобы совпали первые три момента, и т. д. При выравнивании статистических рядов может оказаться полезной специально разработанная система кривых Пир- сона, ка ждая из которых зависит в общем случае от четырех пара- метров. При выравнивании эти параметры выбираются с тем расче- том, чтобы сохранить первые четыре момента статистического рас- пределения (математическое ожидание, дисперсию, третий и четвертый моменты)1). Оригинальный набор кривых распределения, построенных ’) См., например, В. И. Романовский, Математическая статистика, ОНТИ, 1939.
146 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 по иному принципу, дал Н. А. Бородачев1). Принцип, на котором строится система кривых Н. А. Бородачева, заключается в том, что выбор типа теоретической кривой основывается не на внешних формальных признаках, а на анализе физической сущности случай- ного явления или процесса, приводящего к тому или иному закону распределения. Следует заметить, что _при выравнивании статистических рядов нерационально пользоваться моментами порядка выше четвертого, так как точность вычисления моментов резко падает с увеличением их порядка. Пример. 1. В п° 7.3 (стр. 137) приведено статистическое распределе- ние боковой ошибки наводки X при стрельбе с самолета по наземной цели. Требуется выровнять это распределение с помощью нормального закона: 1 <х-т? Решение. Нормальный закон зависит от двух параметров: т и а. Подберем эти параметры так, чтобы сохранить первые два момента — мате- матическое ожидание и дисперсию — статистического распределения. Вычислим приближенно статистическое среднее ошибки наводки по фор- муле (7.4.7), причем за представителя каждого разряда примем его середину: щ* «« — 3,5 • 0,012 — 2,5 • 0,050 —1,5 • 0,144 — 0,5.0,266 + 0,5.0,240 + +1,5 • 0,176 + 2,5 • 0,092 + 3,5 • 0,020 = 0,168. Для определения дисперсии вычислим сначала второй начальный момент по формуле (7.4.9), полагая $ = 2, £ = 8 °° ~ <*2 = 2 = Пользуясь выражением дисперсии через второй начальный момент (фор- мула (7.4.6)), получим: D* = 4—(т’)2 = 2,126 — 0,028 = 2,098. Выберем параметры т и g нормального закона так, чтобы выполнялись условия: т = тп^ а2 = D*, то есть примем: т = 0,168; g = 1,448. Напишем выражение нормального закона: . (X-0,168)’ /(Х) = ------~г=-е 2 1,448’ 1,448/ 2те >) Н. А. Бородачев, Основные вопросы теории точности произ- водства, АН СССР, М, —Л., 1950.
7.5] ВЫРАВНИВАНИЕ СТАТИСТЙЧЕСКИХ РЯДОВ 147 ПоЛьзуясь в табл. 3 приложения, вычислим значения f (х) на границах разрядов X —4 —3 —2 —1 0 1 2 3 4 /(X) 0,004 0,025 0,090 0J99 0,274. 0,234 0,124 0,041 0,008 Построим на одном графике (рис. 7.5.2) гистограмму и выравнивающую ее кривую распределения. Из графика видно, что теоретическая кривая распределения f (х), сохра- няя, в основном существенные особенности статистического распределения, свободна от случайных неправильностей хода гистограммы, которые, по-види- мому, могут быть отнесены за счет случайных причин; более серьезное обоснование последнему суждению будет дано в следующем параграфе. Примечание. В данном примере при определении Dx мы вос- пользовались выражением (7.4.6) статистической дисперсии через второй начальный момент. Этот прием можно рекомендовать только в случае, когда математическое ожидание zn* исследуемой случайной величины X сравнительно невелико; в противном случае фор- мула (7.4.6) выражает дисперсию Dx как разность близких чисел и дает весьма малую точность. В случае, когда это имеет место, ре- комендуется либо вычислять Dx непосредственно по формуле (7.4.3), либо перенести начало координат в какую-либо точку, близкую к т*х, и затем применить формулу (7.4.6). Пользование формулой (7.4.3) равносильно перенесению начала координат в точку /п*; это может
148 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ 7 оказаться неудобным, так как выражение /п* может быть дробным, и вычитание /п* из каждого х1 при этом излишне осложняет вычис- ления; поэтому рекомендуется переносить начало координат в ка- кое-либо круглое значение х, близкое к /я*. Пример 2. С целью исследования зайона распределения ошибки из- мерения дальности с помощью радиодальномера произведено 400 измерений дальности. Результаты опытов представлены в виде статистического ряда: Z, (л) 20; 30 30; 40 40; 50 50; 60 60; 70 70; 80 80; 90 90; 100 21 72 66 38 51 56 64 32 * Pl 0,052 0,180 0,165 0,095 0,128 0,140 0,160 0,080 Выровнять статистический ряд с помощью закона равномерной плотности. Решение. Закон равномерной плотности выражается формулой /(*) = при “<*<?; 0 при х < а или х > р и зависит от двух параметров а и fk Эти параметры следует выбрать так, чтобы сохранить первые два момента статистического распределения — мате- матическое ожидание т*х и дисперсию D**. Из примера п° 5.8 имеем выражения математического ожидания и дисперсии для закона равномерной плотности: (З-*)2 12 Для того чтобы упростить вычисления, связанные с определением статисти- ческих моментов, перенесем начало отсчета в точку = 60 и примем за представителя каждого разряда его середину. Ряд распределения примет вид: ~ / Х1 —35 —25 —15 —5 5 15 25 35 р* 0,052 0,180 0,165 0,095 0,128 0,140 0,160 0,080 где х\ — среднее для разряда значение ошибки радиодальномера Х‘ при но- вом начале отсчета.
7.6] КРИТЕРИИ СОГЛАСИЯ 149 Приближенное значение статистического среднего ошибки X' равно: k т*х' = 2 *ip*=°126- Второй статистический момент величины X' равен: a;=i(x,')2p> 447,8. откуда статистическая дисперсия: D*, = а* — (т* ,)2 = 447,7. Переходя к прежнему началу отсчета, получим новое статистическое среднее: тп* — т*х / -р 60 = 60,26 и ту же статистическую дисперсию: £)* = £)*,== 447,7. Параметры закона равномерной плс мости определяются уравнениями: = 60,26; -(Р—= 447,7. Решая эти уравнения относительно и р, имеем: а «23,6; ₽ ж 96,9, откуда На рис. 7.5.3. показаны гистограмма и выравнивающий ее закон равномерной плотности f (х). 7.6. Критерии согласия В настоящем п° мы рассмотрим один из вопросов, связанных с проверкой правдоподобия гипотез, а именно—вопрос о согласован- ности теоретического и статистического распределения. Допустим, что данное статистическое распределение выравнено с помощью некоторой теоретической кривой f (х) (рис. 7.6.1). Как бы хорошо ни была подобрана теоретическая кривая, между нею и статистическим распределением неизбежны некоторые расхождения. Естественно возникает вопрос: объясняются ли эти расхождения только случайными обстоятельствами, связанными с ограниченным числом наблюдений, или они являются существенными и связаны с тем, что подобранная нами кривая плохо выравнивает данное ста- тистическое распределение. Для ответа на такой вопрос служат так называемые «критерии согласия».
150 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 Идея применения критериев согласия заключается в следующем. На основании данного статистического материала нам предстоит проверить гипотезу Н, состоящую в том, что случайная величина X подчиняется некоторому определенному закону распределения. Этот закон может быть задан в той или иной форме: например, в виде функции распределения F(x) или в виде плотности распределения /(х), •или же в виде совокупности вероятностей где pt — вероятность того, что величина X попадет в пределы Z-ro разряда. Так как из этих форм функция распределения F(x) является наиболее общей и определяет собой любую другую, будем форму- лировать гипотезу Н, как состоящую в том, что величина X имеет функцию распределения F(x). Для того чтобы принять или опровергнуть гипотезу Я, рассмот- рим некоторую величину Ut характеризующую степень расхожде- ния теоретического и статистического распределений. Величина U может быть выбрана различными способами; например, в качестве U можно взять сумму квадратов отклонений теоретических вероятно- стей pt от соответствующих частот р* или же сумму тех же квад- ратов с некоторыми коэффициентами («весами»), или же максимальное отклонение статистической функции распределения F*(x) от теоре- тической F(x) и т. д. Допустим, что величина U выбрана тем или иным способом. Очевидно, это есть некоторая случайная величина. Закон распределения этой случайной величины зависит от закона распределения случайной величины X, над которой производились опыты, и от числа опытов п. Если гипотеза Н верна, то закон рас- пределения величины U определяется законом распределения вели- чины' X (функцией F(x)) и числом п. Допустим, что этот закон распределения нам известен. В ре- зультате данной серии опытов обнаружено, что выбранная нами мера
7.6] КРИТЕРИИ СОГЛАСИЯ 151 расхождения U приняла некоторое значение и. Спрашивается, можно ли объяснить это случайными причинами или же это расхождение слишком велико и указывает на наличие существенной разницы между теоретическим и статистическим распределениями и, следовательно, на непригодность гипотезы Я? Для ответа на этот вопрос предпо- ложим, что гипотеза Н верна, и вычислим в этом предположении вероятность того, что за счет случайных причин, связанных с недо- статочным объемом опытного материала, мера расхождения U ока- жется не меньше, чем наблюденное нами в опыте значение а, т. е. вычислим вероятность события: U^ti. Если эта вероятность весьма мала, то гипотезу*// следует отверг- нуть как мало правдоподобную; если же эта вероятность значительна, следует признать, что экспериментальные данные не противоречат гипотезе Н. Возникает вопрос о том,- каким же способом следует выбирать меру расхождения 4/? Оказывается, что при некоторых способах ее выбора закон распределения величины U обладает весьма простыми свойствами р при достаточно большом п практически не зависит от функции F(x). Именно такими мерами расхождения и пользуются в математической статистике в качестве критериев согласия. Рассмотрим один из наиболее часто применяемых критериев со* гласия—так называемый «критерий х2>> Пирсона. Предположим, что произведено п независимых опытов, в каждом из которых случайная величина X приняла определенное значение. Результаты опытов сведены в k разрядов и оформлены в виде ста- тистического ряда: h Xj; х2 *2, *3 • • • ^k+i • * • • Pl Pl Р2 • • • Рк Требуется проверить, согласуются ли экспериментальные данные с гипотезой о том, что случайная величина X имеет данный закон распределения (заданный функцией распределения F (х) илц плот- ностью /(х)). Назовем этот ^закон распределения «теоретическим». Зная теоретический закон \ распределения, можно найти теорети- ческие вероятности попадания случайной величины в каждый из разрядов: рРр2. .... Pv Проверяя согласованность теоретического и статистического рас- пределений, мы будем исходить из расхождений между теоретиче- скими вероятностями pt и наблюденными частотами р*. Естественно
152 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. ? выбрать в качестве меры расхождения между теоретическим и ста- тистическим распределениями сумму квадратов отклонений (pj—pj, взятых с некоторыми «весами» ct: у = S/, W » = l (7.6.1) Коэффициенты ct («веса» разрядов) вводятся потому, что ‘в общем случае отклонения, относящиеся к различным разрядам, нельзя счи- тать равноправными по значимости. Действительно, одно и то же по абсолютной величине отклонение р* — pL может быть мало значитель- ным, если сама вероятность pt велика, и очень заметным, если она мала. Поэтому естественно «веса» ct взять обратно пропорциональ- ными вероятностям разрядов pt. Далее возникает вопрос о том, как выбрать коэффициент про- порциональности. К. Пирсон показал, что если положить (7.6.2) то при больших п закон распределения величины U обладает весьма простыми свойствами: он практически не зависит от функции рас- пределения F (х) и от числа опытов п, а зависит только от числа разрядов А, а именно, этот закон при увеличении п приближается к так называемому «распределению у1 2» !). При таком выборе коэффициентов ct мера расхождения обычно обозначается х2: (7.6.3) Для удобства вычислений (чтобы не иметь дела с дробными ве- личинами с большим числом нулей) можно ввести п под знак суммы 1) Распределением х2 с г степенями свободы называется распределение суммы квадратов г независимых случайных величин, каждая из которых под- чинена нормальному закону с математическим ожиданием, равным нулю, и дисперсией, равной единице. Это распределение характеризуется плотностью -— 1___ к2 е 2 при и > О, kr СО = при «<0, где r(2) = j dt— известная гамма-функция, о
76] КРИТЕРИИ СОГЛАСИЯ 153 и, учитывая, что р*=-у-, где — число значений в Z-м разряде, привести формулу (7.6.3) к виду: (г-64) 1=1 Распределение х2 зависит от параметра г, называемого числом «сте- пеней свободы» распределения. Число «степеней свободы» г равно числу разрядов k минус число независимых условий («связей»), на- ложенных на частоты р*. Примерами таких условий могут быть 1=1 если мы требуем только того, чтобы сумма частот была равна еди- нице (это требование накладывается во всех случаях); к если мы подбираем теоретическое распределение с тем условием, чтобы совпадали теоретическое и статистическое средние значения; тх)2/’1=£>ж« если мы требуем, кроме того, совпадения теоретической и стати- стической дисперсий и т. д. Для распределения х2 составлены специальные таблицы (см. табл. 4 приложения), Пользуясь этими таблицами, можно для каждого зна- чения х2 и числа степеней свободы ~г найти вероятность р того, что величина, распределенная по закону у2, превзойдет это значение. В табл, 4 входами являются: значение вероятности р и число степе- ней свободы г. Числа, стоящие в таблице, представляют собой соот- ветствующие значения /2. Распределение х2 дает возможность оценить степень согласован- ности теоретического и статистического распределений. Будем исхо- дить из того, что величина X действительно распределена по закону F (х). Тогда вероятность р, определенная по таблице, есть вероятность того, что за счет чисто случайных причин мера расхож- дения теоретического и статистического распределений (7.6.4) будет не меньше, чем фактически наблюденное в данной серии опытов значение /2. Если эта вероятность р весьма мала (настолько мала, что событие с такой вероятностью можно считать практически невозможным), то результат опыта следует считать противоречащим гипотезе Н о том, что закон распределения величины X есть Г(х). Эту
154 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 7 гипотезу следует отбросить как неправдоподобную. Напротив, если вероятность р сравнительно велика, можно признать расхождения меж- ду теоретическим и статистическим распределениями несущественными и отнести их за счет случайных причин. Гипотезу Н о том, что величина X распределена по закону F (х), можно считать правдо- подобной или, по крайней мере, не противоречащей опытным данным. Таким образом, схема применения критерия х2 к оценке согласо- ванности теоретического и статистического распределений сводится к следующему: 1) Определяется мера расхождения х2 по формуле (7.6.4). 2) Определяется число степеней свободы г как число разрядов k минус число наложенных связей $: r — k— s. 3) По г и х2 с помощью табл. 4 определяется вероятность того, что величина, имеющая распределение х2 с г степенями свободы, пре- взойдет данное значение х2- Если эта вероятность весьма мала, гипо- теза отбрасывается как неправдоподобная. Если эта вероятность относительно велика, гипотезу можно признать не противоречащей опытным данным. Насколько мала должна быть вероятность р для того, чтобы от- бросить или пересмотреть гипотезу, — вопрос неопределенный; он не может быть решен из математических соображений, так же как и вопрос о том, насколько мала должна быть вероятность события для того, чтобы считать его практически невозможным. На практике, если р оказывается меньшим чем 0,1, рекомендуется проверить экспе- римент, если возможно — повторить его и в случае, если заметные расхождения снова появятся, пытаться искать более подходящий для описания статистических данных закон распределения. Следует особо отметить, что с помощью критерия х2 (или любого другого критерия согласия) можно только в некоторых случаях опро- вергнуть выбранную гипотезу Н и отбросить ее как явно несо- гласную с опытными данными; если же вероятность р велика, то этот факт сам по себе ни в коем случае не может считаться доказатель- ством справедливости гипотезы Ht а указывает только на то, что гипотеза не противоречит опытным данным. С первого взгляда может показаться, что чем больше вероят- ность р, тем лучше согласованность теоретического и статистиче- ского распределений и тем более обоснованным следует считать выбор функции F(x) в качестве закона распределения случайной величины. В действительности это не так. Допустим, например, что, оценивая согласие теоретического и статистического распределений по критерию х2» мы получили р = 0,99. Это значит, что с вероятно- стью 0,99 за счет чисто случайных причин при данном числе опытов
7.61 КРИТЕРИИ СОГЛАСИЯ 155 должны были получиться расхождения ббльшие, чем наблюденные. Мы же получили относительно весьма малые расхождения, которые слишком малы для того, чтобы признать их правдоподобными. Разум- нее признать, что столь близкое совпадение теоретического и стати- стического распределений не является случайным и может быть объяснено определенными причинами, связанными с регистрацией и обработкой опытных данных (в частности, с весьма распространенной на практике «подчисткой» опытных данных, когда некоторые резуль- таты произвольно отбрасываются или несколько изменяются). Разумеется, все эти соображения применимы только в тех слу- чаях, когда количество опытов п достаточно велико (порядка несколь- ких сотен) и кбгда имеет смысл применять сам критерий, осно- ванный на предельном распределении меры расхождения при п->оо. Заметим, что при пользовании критерием /2 достаточно большим должно быть не только общее число опытов п, но и числа наблюдений в отдельных разрядах. На практике рекомендуется иметь в каждом разряде не менее 5—10 наблюдений. Если числа наблюдений в от- дельных разрядах очень малы (порядка 1 — 2), имеет смысл объеди- нить некоторые разряды. Пример 1. Проверить согласованность теоретического и статистического распределений для примера 1 п° 7.5 (стр. 137, 146). Решение. Пользуясь теоретическим нормальным законом распределе- ния с параметрами т = 0,168, а =1,448, находим вероятности попадания в разряды по формуле j Ф*(*<7ОТ), где X/, Х/+1— границы Z-го разряда. Затем составляем сравнительную таблицу чисел попаданий в разряды mi и соответствующих значений npi (п = 500). h —4; —3 —3; —2 —2; — 1 —1; о 0; 1 1; 2 2; 3 3; 4 mt 6 25 72 133 120 88 46 10 npt 6,2 .26,2 71,2 122,2 131,8 90,5 38,2 10,5 По формуле (7.6.4) определяем значение меры расхождения ,= у (т< —= 3,94. пР‘ Определяем число степеней свободы как число разрядов минус число наложенных связей s (в данном случае $ = 3): г = 8 —3 = 5.
J 56 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 По табл. 4 приложения находим для г = 5: при х2 = 3,00 р = 0,70; при у2 = 4,35 р = 0,50. Следовательно, искомая вероятность р при у2 =* 3,94 приближенно равна 0,56. Эта вероятность малой не является; поэтому гипотезу о том, что ве- личина X распределена по нормальному закону, можно считать правдоподобной. Пример 2. Проверить согласованность теоретического и статистиче- ского распределений для условий примера 2 п° 7.5 (стр. 149). Решение. Значения pt вычисляем как вероятности попадания на участки (20; 30), (30; 40) и т. д. для случайной величины, оаспределенной по закону равномерной плотности на отрезке (23,6; 96,9). Составляем сравнительную таблицу значений пц и npi (п = 400): h 20; 30 30; 40 40; 50 50; 60 60; 70 70; 80 80; 90 90; 100 mi 21 72 66 38 51 56 ’ 64 32 npi 34,9 54,6 54,6 54,6 54,6 54,6 54,6 38,0 По формуле (7.6.4) находим х2- = V ~ пр‘У. « 20,9. Число степеней свободы: г = 8 —3 = 5. По табл. 4 приложения имеем: при у2— 20,5 и г = 5 р = 0,001. Следовательно, наблюденное нами расхождение между теоретическим и статистическим распределениями могло бы за счет чисто случайных причин появиться лишь с вероятностью 0,001. Так как эта вероятность очень мала, следует признать экспериментальные данные противоречащими гипотезе о том, что величина X распределена по закону равномерной плотности. Кроме критерия х2» Для оценки степени согласованности теорети- ческого и статистического распределений на практике применяется еще ряд других критериев. Из них мы вкратце остановимся на кри- терии А. Н. Колмогорова. В качестве меры расхождения между теоретическим и статисти- ческим распределениями А. Н. Колмогоров рассматривает максималь- ное значение модуля разности между статистической функцией рас- пределения F*(x) и соответствующей теоретической функцией рас- пределения: D = max | F* (х) — Г(лг)|. Основанием для выбора в качестве меры расхождения величины D является простота ее вычисления. Вместе с тем она имеет достаточно
7.6] КРИТЕРИИ СОГЛАСИЯ 157 простой закон распределения. А. Н. Колмогоров доказал, что, какова бы ни была функция распределения F (х) непрерывной случайной ве- личины X, при неограниченном возрастании числа независимых на- блюдений п вероятность неравенства £>/п>Х стремится к пределу Р(Х) = 1— 2 (_ 1)»е-2л«х’. (7.6.5) Л=-оо Значения вероятности Р(Х), подсчитанные по формуле (7.6.5), приведены в таблице 7.6.1. Таблица 7.6.1 X к X Р(Х) 0,0 1,000 0,7 0,711 1,4 0,040 0,1 1,000 0,8 0,544 1,5 0,022 0,2 1,000 0,9 0,393 1,6 0,012 0,3 1,000 1,0 0,270 1,7 0,006 0,4 0,997 1,1 0,178 1,8 0,003 0,5 0,964 1,2 0,112 1,9 0,002 0,6 0,864 1,3 0,068 2,0 0,001 Схема применения критерия А. Н. Колмогорова следующая: строят- ся статистическая функция распределения Л*(х) и предполагаемая теоретическая функция распределения F(x), и определяется макси- мум D модуля разности между ними (рис. 7.6.2). Далее, определяется величина Х = О Уп
158 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. ? и по таблице 7.6.1 находится вероятность Р(Х). Это есть вероят- ность того, что (если величина X действительно распределена по закону F (х)) за счет чисто случайных причин максимальное расхож- дение между F* (х) и F (х) будет не меньше, чем фактически наблю- денное. Если вероятность Р(Х) весьма мала, гипотезу следует отверг- нуть как неправдоподобную; при сравнительно больших Р (X) ее можно считать совместимой с опытными данными. Критерий А. Н. Колмогорова своей простотой выгодно отличается от описанного ранее критерия /2; поэтому его весьма охотно при- меняют на практике. Следует, однако, оговорить, что этот критерий можно применять только в случае, когда гипотетическое распреде- ление F(x) полностью известно заранее из каких-либо теоретиче- ских соображений, т. е. когда известен не только вид функции рас- пределения F(x), но и все входящие в нее параметры. Такой случай сравнительно редко встречается на практике. Обычно из теоретиче- ских соображений известен только общий вид функции F(x), а вхо- дящие в нее числовые параметры определяются по данному стати- стическому материалу. При применении критерия х2 это обстоятельство учитывается соответствующим уменьшением числа степеней свободы распределения уР. Критерий А. Н. Колмогорова такого согласования не предусматривает. Если все же применять этот критерий в тех случаях, когда параметры теоретического распределения выбираются по статистическим данным, критерий дает заведомо завышенные зна- чения вероятности Р(Х); поэтому мы в ряде случаев рискуем принять как правдоподобную гипотезу, в действительности плохо согласую- щуюся с опытными данными.
ГЛАВА 8 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН 8.1. Понятие о системе случайных величин В практических применениях теории вероятностей очень часто приходится сталкиваться с задачами, в которых результат опыта описы- вается не одной случайной величиной, а двумя или более случайными величинами, образующими комплекс или систему. Например, точка попадания снаряда определяется не одной случайной величиной, а двумя: абсциссой и ординатой — и может быть рассмотрена как ком- плекс двух случайных величин. Аналогично точка разрыва дистан- ционного снаряда определяется комплексом трех случайных величин. При стрельбе группой из п выстрелов совокупность точек попада- ния на плоскости может рассматриваться как комплекс или система 2а случайных величин: п абсцисс и п ординат точек попадания. Осколок, образовавшийся при разрыве снаряда, характеризуется рядом случай- ных величин: весом, размерами, начальной скоростью, направлением полета и т. д. Условимся систему нескольких случайных величин X, Г, ..., W обозначать (X. У, ..., W). Свойства системы нескольких случайных величин не исчерпываются свойствами отдельных величин, ее составляющих: помимо этого, они включают также взаимные связи (зависимости) между случайными вели- чинами. При рассмотрении вопросов, связанных с системами случайных вё- личин, удобно пользоваться геометрической интерпретацией системы. Например, систему двух случайных величин (Х9 У) можно изобра- жать случайной точкой на плоскости с координатами X и У (рис. 8.1.1). Аналогично система трех случайных величин может быть изображена случайной точкой в трехмерном пространстве. Часто бы- вает удобно говорить о системе п случайных величин как о «случай- ной точке в пространстве п измерений». Несмотря на то, что послед- няя интерпретация не обладает непосредственной наглядностью, поль- зование ею дает некоторый выигрыш в смысле общности терминологии и упрощения записей.
160 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 8 Часто вместо образа случайной точки для геометрической интерпретации системы случайных величин пользуются образом слу- чайного вектора. Систему двух случайных величин при этом рассматривают как случайный вектор на плоскости хОу, составляющие которого по осям представляют собой случайные величины X, Y (рис. 8.1.2). Система трех случайных величин изображается случайным вектором в трехмерном пространстве, система п случайных величин — случайным вектором в пространстве п измерений. При этом теория систем случайных величин рассматривается как теория случайных векторов. В данном курсе мы будем в зависимости от удобства изложения пользоваться как одной, так и другой интерпретацией. Занимаясь системами случайных величин, мы будем рассматривать как полные, исчерпывающие вероятностные характеристики—законы распределения, так и неполные — числовые характеристики. Изложение начнем с наиболее простого случая системы двух слу- чайных величин. х 8.2. Функция распределения системы двух случайных величин Функцией распределения системы двух случайных величин (Xt Y) называется вероятность совместного выполнения двух неравенств X < х и Y < у: F(x, у) = Р((Х<х)(Г <у)). (8.2.1) Если пользоваться для геометрической интерпретации системы образом случайной точки, то функция распределения F(x, у) есть не что иное/ как вероятность попадания случайной точки (X, Y) в бесконечный квадрант с вершиной в точке (х, у), лежащий левее
8 2] ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ ВЕЛИЧИН 161 и ниже ее (рис. 8.2.1). В аналогичной интерпретации функция рас- пределения одной случайной величины X — обозначим ее Fx (х) — представляет собой вероятность попада- ния случайной точки в полуплоскость, ограниченную справа абсциссой х (рис. 8.2.2); функция распределения од- ной величины Y — F2(y)— вероятность попадания в полуплоскость, ограничен- ную сверху ординатой у (рис. 8.2.3). В п°5.2 мы привели основные свой- ства функции распределения F(x) для одной случайной величины. Сформули- руем аналогичные свойства для функ- ции распределения системы случай- ных величин и снова воспользуемся геометрической интерпретацией для Рис. 8.2.1. наглядной иллюстрации этих свойств. 1. Функция распределения F(x, у) есть неубывающая функция обоих своих аргументов, т. е. при х2 при у2 F(x2, y)>F(xlt у); *1 У1 Уд>Р(х> У1)- В этом свойстве функции F(x) можно наглядно убедиться, поль- зуясь геометрической интерпретацией функции распределения как Рис. 8.2.2. вероятности попадания в квадрант с вершиной (х, у) (рис. 8.2.1). Действительно, увеличивая х (смещая Рис. 8.2.3. правую границу квадранта вправо) или увеличивая у (смещая верх- нюю границу вверх), мы, очевидно, не можем уменьшить вероят- ность попадания в этот квадрант» 11-3015
162 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 8 2. Повсюду на —оо функция распределения равна нулю: F(x, —oo) = F(—оо, y) = F(—оо, —оо) = 0. В этом свойстве мы наглядно убеждаемся, неограниченно отодви- гая влево правую границу квадранта (х—>— оо) или вниз его верх- нюю границу (у~>— оо) или делая это одновременно с обеими гра- ницами; при этом вероятность попадания в квадрант стремится к нулю. 3. При одном из аргументов, равном +оо, функция распреде- ления системы превращается в функцию распределения случайной величины, соответствующей другому аргументу: F (х, 4- оо) = Fx (х), F (4- оо, у) = F2 (у), где fj(x), Г2(у) — соответственно функции распределения случайных величин X и F. В этом свойстве функции распределения можно наглядно убе- диться, смещая ту или иную из границ квадранта на Н-оо; при этом в пределе квадрант превращается в полуплоскость, вероятность попадания в которую есть функция распределения одной из величин, входящих в систему. 4. Если оба аргумента равны 4-°°, функция распределения си- стемы равна единице: Г(4-оо, 4-оо) = 1. Действительно, при х->4~°°» у-~>4-оо квадрант с вершиной (х, у) в пределе обращается во всю плоскость хОу, попадание • в которую есть достоверное событие. у При рассмотрении законов распределе- ния отдельных случайных величин (глава 5) мы вывели выражение для вероятности по- >f///////ni падания случайной величины в пределы /ш//D ///И заданного участка. Эту вероятность мы выра- \щ////ц/г зили как через функцию распределения, так и через плотность распределения. О Аналогичным вопросом для системы двух Рис. 8.2.4. случайных величин является вопрос о ве- роятности попадания случайной точки (X,Y) в пределы заданной области D на плоскости хОу (рис. 8.2.4). Условимся событие, состоящее в попадании случайной точки (Xt Y). в область D, обозначать символом (X, Y) с. D. Вероятность попадания случайной точки в заданную область вы- ражается наиболее просто в том случае, когда эта область пред- ставляет собой прямоугольник со сторонами, параллельными коорди- натным осям. Выразим через функцию распределения системы вероятность по- падания случайной точки (X. Y) в прямоугольник R, ограничен- ный абсциссами а и £ и ординатами j и J (рис. 8.2.5).
8.3] ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ ВЕЛИЧИН 163 При этом следует условиться, куда мы будем относить границы прямоугольника. Аналогично тому, как мы делали для одной случай- ной величины, условимся включать в прямоугольник R его нижнюю и левую границы и не включать верхнюю и правую1). Тогда собы- тие (X, У)с/? будет равносильно произведению двух событий: и Выразим вероятность этого события через Рис. 8.25. У Рис. 8.2.6. функцию распределения системы. Для этого рассмотрим на плоскости хОу четыре бесконечных квадранта с вершинами в точках (£, 8); (а, 8); (₽. т) и (а. т) (рис,. 8.2.6). Очевидно, вероятность попадания в прямоугольник R равна ве- роятности попадания в квадрант (р, 8) минус вероятность попадания в квадрант (а, 8) минус вероятность попадания в квадрант (0, f) плюс вероятность попадания в квадрант (а, 7) (так как мы дважды вычли вероятность попадания в этот квадрант). Отсюда получаем формулу, выражающую вероятность попадания в прямоугольник через функцию распределения системы: Р((Х. X)c/?) = F(p, 8)-F(a, 8)-F(₽, tf + F(a, 7). (8.2.2) В дальнейшем, когда будет введено понятие плотности распреде- ления системы, мы выведем формулу для вероятности попадания случайной точки в область произвольной формы. 8.3, Плотность распределения системы двух случайных величин Введенная в предыдущем п° характеристика системы — функция распределения — существует для систем любых случайных величин, как прерывных, так и непрерывных. Основное практическое значение *) На рис. 8.2.5 границы, включенные в прямоугольник, даны жирными линиями.
164 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 8 имеют системы непрерывных случайных величин. Распределение системы непрерывных величин обычно характеризуют не функцией У Рис. 8.3.1. распределения, а плотностью рас- пределения. Вводя в рассмотрение плотность рас- пределения для одной случайной вели- чины, мы определяли ее как предел от- ношения вероятности попадания на малый участок к длине этого участка при ее неограниченном уменьшении. Аналогично определим плотность распределения си- стемы двух величин. Пусть имеется система двух непре- рывных случайных величин (X, Е), кото- рая интерпретируется случайной точкой на плоскости хОу. Рассмотрим на этой плоскости малый прямоугольник со сторонами Дх и Ду, примыкающий к точке с координатами (х. у) (рис. 8.3.1). Вероятность попадания в этот прямоугольник по фор- муле (8.2.2) равна Р((Х, Y) с 7?д) = Р(х+ Дх, уН-Ду) — — Р(х4-Дх, y) — F(x, y + &y)+F(x. у). Разделим вероятность попадания в прямоугольник /?д на площадь этого прямоугольника и перейдем к пределу при Дх—>0 и Ду—>0: Пт Дж->0 ду->о Р((Х, Е)с#д) _ - Дх Ду = Пт. Дх->0 Ду-И) Ffx-j-Ax, y-f-Ду) —F(x+Дх, у) —F(x, у-рДу)4-F(х, у) Дх Ду (8.3.1) Предположим, что функция F(x, у) не только непрерывна, но и дифференцируема; тогда правая часть формулы (8.3.1) представляет собой вторую смешанную частную производную функции Р(х, у) по х и у. Обозначим эту производную f(x, у): / (х. у) » = F'„ (х, у). (8.3.2) Функция f (х, у) называется плотностью распределения системы. Таким образом, плотность распределения системы представляет собой предел отношения вероятности попадания в малый прямоуголь- ник к площади этого прямоугольника, когда оба его размера стре- мятся к нулю; она может быть выражена как вторая смешанная частная производная функции распределения системы по обоим аргу- ментам.
8.3) ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ ВЕЛИЧИН 165 Если воспользоваться «механической» интерпретацией распреде- ления системы как распределения единичной массы по плоскости хОу, функция f(x, у) представляет собой плотность распределения массы в точке (х, у). Геометрически функцию f(x9 у) можно изобразить некоторой поверхностью (рис. 8.3.2). Эта поверхность аналогична кривой рас- пределения для одной случайной ве- личины и называется поверхностью распределения. Если пересечь поверхность рас- пределения /(х, у) плоскостью, па- раллельной плоскости хОу, и спроек- тировать полученное сечение на плоскость хОу, получится кривая, в каждой точке которой плотность распределения постоянна. Такие кри- вые называются кривыми равной плотности. Кривые равной плот- ности, очевидно, представляют собой горизонтали поверхности распределения. Часто бывает удобно задавать распределение семейством кривых равной плотности. Рассматривая плотность распределения /(х) для одной случайной нятие «элемента вероятности» f(x)dx. Это есть вероятность попадания случайной вели- чины X на элементарный участок dx9 приле- жащий к точке х. Аналогичное понятие «элемента вероятности» вводится и для си- стемы двух случайных величин. Элементом вероятности в данном случае называется выражение /(х, y)dxdy. Очевидно, элемент вероятности есть не что иное, как вероятность попадания в эле- ментарный прямоугольник со сторонами dx9 dy, примыкающий к точке (х, у) (рис. 8.3.3). Эта вероятность равна объему элементарного параллелепипеда, ограниченного сверху поверхностью /(х, у) и опи- рающегося на элементарный прямоугольник dxdy (рис. 8.3.4). Пользуясь понятием элемента вероятности, выведем выражение для вероятности попадания случайной точки в произвольную область D. Эта вероятность, очевидно, может быть получена суммированием (интегрированием) элементов вероятности по всей области D: величины, мы ввели У Рис. 8.3.3. Р ( (X Y)cD) = f ff (х. у) dx dy. (8.3.3)
166 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН ГГЛ. 8 Геометрически вероятность попадания в область D изображается объемом цилиндрического тела С, ограниченного сверху поверхностью распределения и опирающегося на область D (рис. 8.3.5). Рис. 8.3.4. Рис. 8.3.5. Из общей формулы (8.3.3) вытекает формула для вероятности попадания в прямоугольник R, ограниченный абсциссами а и £ и ординатами 7 и 8 (рис. 8.2.5): ₽ « , P((X. Y)cR)^fff(x, y)dxdy. (8.3.4) а Т Воспользуемся формулой (8.3.4) для того, чтобы выразить функ- цию распределения системы F(xt у) через плотность распределения /(х, у). Функция распределения F(x, у) есть вероятность попадания в бесконечный квадрант; последний можно рассматривать как прямо- угольник, ограниченный абсциссами — оо и х и ординатами — оо и у. По формуле (8.3.4) имеем: дг у F(x, у) = f f f(x, yjdxdy. (8.3.5) — CO —CO Легко убедиться в следующих свойствах плотности распределения системы: 1. Плотность распределения системы есть функция неотрица- тельная: /(*. У)>0. Это ясно из того, что плотность распределения есть предел отно- шения двух неотрицательных величин: вероятности попадания в пря- моугольник и площади прямоугольника — и, следовательно, отрица- тельной быть не может.
8.3] ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ ВЕЛИЧИН 167 2. Двойной интеграл в бесконечных пределах пределения системы равен единице: от плотности рас- оо J J f(x. y)dxdy = l. — ОО Это видно из того, что интеграл (8.3.6) есть роятность попадания во всю плоскость хОу, т. е. вероятность достоверного события. Геометрически это свойство означает, что полный объем тела, ограниченного поверхностью распределения и плоскостью xOyt равен единице. Пример 1. Система двух случайных величин (X. Y) подчинена закону распределения с плотностью f У) = я2 (1+ №)(!+у2) ' (8.3.6) не что иное, как ве- Найти функцию распределения Г (х, у). Определить р вероятность попадания случайной точки (X, Y) в квад- 1 ис* ‘ * рат R (рис. 8.3.6). Решение. Функцию распределения F (л, у) находим по формуле (8.3.5) X у ч 1 Г Г dx dy /1 , , 1\/1 , , 1\ J J -(it arclg*+ afC,g У+ 2j‘ Вероятность попадания в прямоугольник R находим по формуле (8.3.4): 11 11 Р ((X Y}czR}____1 /* /* -________________ — /* &х /* == — U *2 J J (14-Ж2)(1+у2) ==^2 J I4.X2,/ 1+у216* 0 0 0 0 Пример 2. Поверхность распределения системы (X, Y) представляет собой прямой круговой конус, основанием которого служит круг радиуса R с центром в начале координат. Написать выражение плотности распределе- ния. Определить вероятность того, что случайная точка (л, у) попадет в круг д радиуса а (рис. 8.3.7), причем а < R.
168 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ 8 Решение. Выражение плотности распределения внутри круга К на- ходим из рис. 8.3.8: где h — высота конуса. Величину h определяем так, чтобы объем конуса был равен единице: -5- nR2h » 1, откуда /(х,У)=^Г(Я-Г*Г+уГ). Вероятность попадания в круг К определяем по формуле (8.3.4): Р((Х, Y)cK)^ f ff(x,y)dxdy. (8.3.7) (*) Для вычисления интеграла (8.3.7) удобно перейти к полярной системе коор- динат г, у: Р((Х, Г)аХ) = а 2к а -f f 0 0 о 8.4. Законы распределения отдельных величин, входящих в систему. Условные законы распределения Зная закон распределения системы двух случайных величин, можно всегда определить законы распределения отдельных величин, входящих в систему. В п° 8.2 мы уже вывели выражения для функ- ций распределения отдельных величин, входящих в систему, через функцию распределения системы, а именно, мы показали, что Л (х) = Г (*. оо); F2 (у) = F (оо, у). (8.4.1) Выразим теперь плотность распределения каждой из величин, входящих в систему, через плотность распределения системы. Поль- зуясь формулой (8.3.5), выражающей функцию распределения через плотность распределения, напишем: Fi(x) = F(x, оо)== J J/(х, y)dxdy, — ОО -00 откуда, дифференцируя по х, получим выражение для плотности распределения величины Х‘. Л(х) = г;(*)= f/(x, y)dy. (8.4.2) —00
8.4] ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ОТДЕЛЬНЫХ ВЕЛИЧИН 169 Аналогично „ 00 /2 (У) = Ъ (у) = J / (*’ У)dx- (8.4.3) —оо Таким образом, для того чтобы получить плотность распределе- ния одной из величин, входящих в систему, нужно плотность рас- пределения системы проинтегрировать в бесконечных пределах по аргументу, соответствующему другой случайной величине. Формулы (8.4.1), (8.4.2) и (8.4.3) дают возможность, зная закон распределения системы (заданный в виде функции распределения или плотности распределения), найти законы распределения отдельных величин, входящих в систему. Естественно, возникает вопрос об об- ратной задаче: нельзя ли по законам распределения отдельных вели- чин, входящих в систему, восстановить закон распределения системы? Оказывается, что в общем случае этого сделать нельзя: зная только законы распределения отдельных величин, входящих в систему, не всегда можно найти закон распределения системы. Для того чтобы исчерпывающим образом охарактеризовать систему, недостаточно знать распределение каждой из величин, входящих в систему; нужно еще знать зависимость между величинами, входящими в систему. Эта зависимость может быть охарактеризована с помощью так на- зываемых условных законов распределения. Условным законом распределения величины X» входящей в си- стему (X, Y), называется ее закон распределения, вычисленный при условии, что другая случайная величина Y приняла определенное значение у. Условный закон распределения можно задавать как функцией распределения, так и плотностью. Условная функция распределения обозначается F(x|y), условная плотность распределения /(х|у). Так как системы непрерывных величий имеют основное практическое зна- чение, мы в данном курсе ограничимся рассмотрением условных за- конов, заданных плотностью распределения. Чтобы нагляднее пояснить понятие условного закона распреде- ления, рассмотрим пример. Система случайных величин L и Q пред- ставляет собой длину и вес осколка снаряда. Пусть нас интересует длина осколка L безотносительно к его весу; это есть случайная величина, подчиненная закону распределения с плотностью /X(Z). Этот закон распределения мы можем исследоьать, рассматривая все без исключения осколки и оценивая их только по длине; /х(/) есть безусловный закон распределения длины осколка. Однако нас может интересовать и закон распределения длины осколка вполне опреде- ленного веса, например 10 г. Для того чтобы его определить, мы будем исследовать не все осколки, а только определенную весовую группу, в которой вес приблизительно равен 10 а, и получим условный закон распределения длины осколка при весе 10 г
170 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 8 с плотностью при д=10. Этот условный закон распределе- ния вообще отличается от безусловного очевидно, более тя- желые осколки должны в среднем обладать и большей длиной; сле- довательно, условный закон распре- деления длины осколка существенно зависит от веса q. Зная закон распределения одной из величин, входящих в систему, и условный закон распределения вто- рой. можно составить закон распре- деления системы. Выведем формулу, выражающую это соотношение, для непрерывных случайных величин. Для этого воспользуемся понятием об элементе вероятности. Рассмотрим прилежащий к точке (х, у) элемен- тарный прямоугольник Rd со сто- ронами dxt dy (рис. 8.4.1). Вероят- ность попадания в этот прямоуголь- ник — элемент вероятности f (х, у) dx dy — равна вероятности одно- временного попадания случайной точки (X, У) в элементарную полосу /» опирающуюся на отрезок dxt и в полосу //, опирающуюся на от- резок dy. f(x, y)dxdy=P((X, Y)<zRa) = = P((x < X < jc-|-dx)(y < Y < y-brfy)). Вероятность произведения этих двух событий, по теореме умно- жения вероятностей, равна вероятности попадания в элементарную полосу /, умноженной на условную вероятность попадания в эле- ментарную полосу //, вычисленную при условии, что первое событие имело место. Это условие в пределе равносильно условию Х — х\ следовательно, /(•*• y)dxdy=f1(x)dxf(y\x)dy. откуда № У) = Л(х)/(У|*). (8.4.4) т» е. плотность распределения системы двух величин равна плот- ности распределения одной из величин, входящих в систему, умно- женной на условную плотность распределения другой величины, вы- численную при условии, что первая величина приняла заданное зна- чение. Формулу (8.4.4) часто называют теоремой умножения законов распределения. Эта теорема в схеме случайных величин аналогична теореме умножения вероятностей в схеме событий.
8.51 ЗАВИСИМЫЕ И НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 171 Очевидно, формуле (8.4.4) можно придать другой вид, если за- дать значение не величины X, а величины К: /(*. у) = /2(у)/(х|у). (8.4.5) Разрешая формулы (8.4.4) и (8.4.5) относительно /(у|х) и /(х|у), получим выражения условных законов распределения через без- условные: или. применяя формулы (8.4.2) и (8.4.3), (8.4.6) (8.4.7) $ fix, у) dx 8.5. Зависимые и независимые случайные величины При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными вели- чинами может быть настолько тесной, что, зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми. Понятие о независимых случайных величинах — одно из важных понятий теории вероятностей. Случайная величина Y называется независимой от случайной ве- личины Xt если закон распределения величины Y не зависит от того, какое значение приняла величина X. Для непрерывных случайных величин условие независимости Y от X может быть записано в виде: /(у|*) = /2(у) при любом у. Напротив, в случае, если У зависит от X, то /(У|х)*/2(У).
172 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 8 Докажем, что зависимость или независимость случайных ве- личин всегда взаимны: если величина У не зависит от Л", то и ве- личина X не зависит от У. Действительно, пусть У не зависит от X: /(у|*) = /2(У)- (8.5.1) Из формул (8.4.4) и (8.4.5) имеем: fiWf(y\x) — f2(y)f(x\y), откуда, принимая во внимание (8.5.1), получим: что и требовалось доказать. Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин. Случайные величины X и У называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины X и У называются зависимыми. Для независимых непрерывных случайных величин теорема умно- жения законов распределения принимает вид: /(х. у) = Л(*)Л(У)- (8-5.2) т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения от- дельных величин, входящих в систему. Условие (8.5.2) может рассматриваться как необходимое и до- статочное условие независимости случайных величин. Часто по самому виду функции f(x, у) можно заключить, что случайные величины X, У являются независимыми, а именно, если плотность распределения f(x, у) распадается на произведение двух функций, из которых одна зависит только от х, другая — только от у, то случайные величины независимы. Пример. Плотность распределения системы (Л", У) имеет вид; f (х' у) = я’ (х2Ч-у2Ч-х’у2 + 1) ' Определить, зависимы или независимы случайные величины X и Г.- Ре ше и ие. Разлагая знаменатель на множители, имеем: fi \ 1 1 К(1+Л2) л(14_у2)- Из того, что функция /(х, у) распалась на произведение двух функций, из которых одна зависит только от л, а другая — только от у, заключаем*
8.51 ЗАВИСИМЫЕ И НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 173 что величины Л" и К должны быть независимы. Действительно, применяя формулы (8.4.2) и (8.4.3), имеем: оо 1 Р аУ _ 1 /|(JC)== «О+х») ,/ к(1 + У2) “ «(!+•**) ’ — ОО аналогично -Му)= л(1+у2) ’ откуда убеждаемся, что y) = /i (*) Л (у) и. следовательно, величины X п У независимы. Вышеизложенный критерий суждения о зависимости или незави- симости случайных величин исходит из предположения, что закон распределения системы нам известен. На практике чаще бывает на- оборот: закон распределения системы (X, У) не известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величины X и Y независимы. Тогда можно написать плотность распределения системы как произведение плотностей распределения отдельных величин, входящих в систему. Остановимся несколько подробнее на важных понятиях о «зави- симости» и «независимости» случайных величин. Понятие «зависимости» случайных величин, которым мы пользу- емся в теории вероятностей, несколько отличается от обычного по- нятия «зависимости» величин, которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тип зависимости — полную, жесткую, так называемую функциональную зависимость. Две величины X и У называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой. В теории вероятностей мы встречаемся с другим, более общим, типом зависимости — с вероятностной или «стохастической» зави- симостью. Если величина Y связана с величиной X вероятностной зависимостью, то, зная значение X. нельзя указать точно значение У, а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина X. Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай — полная независимость случайных величин. Между этими двумя край- ними случаями лежат все градации вероятностной зависимости — от самой сильной до самой слабой. Те физические величины, которые на практике мы считаем функционально зависимыми, в действитель- ности связаны весьма тесной вероятностной зависимостью: при
174 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 8 заданном значении одной из этих величин другая колеблется в столь узких пределах, что ее практически можно считать вполне опреде- ленной. С другой стороны, те величины, которые мы на практике считаем независимыми, в действительности часто находятся в некоторой взаимной зависимости, но эта зависимость настолько слаба, что ею для практических целей можно пренебречь. Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины X и Y находятся в вероятностной зависимости, это не означает, что с из- менением величины X величина Y изменяется вполне определенным образом; это лишь означает, что с изменением величины X величина Y имеет тенденцию также изменяться (например, возрастать или убывать при возрастании X). Эта тенденция соблюдается лишь «в среднем», в об- щих чертах, и в каждом отдельном случае от нее возможны отступления. Рассмотрим, например, две такие случайные величины: X — рост наугад взятого человека, Y — его вес. Очевидно, величины X и Y находятся в определенной вероятностной зависимости; она выражается в том, что в общем люди с большим ростом имеют больший вес. Можно даже составить эмпирическую формулу, приближенно заменяю- щую эту вероятностную зависимость функциональной. Такова, например, общеизвестная формула, приближенно выражающая зависимость между ростом и весом: Г(л:г) = Х(сл) —100. Формулы подобного типа, очевидно, не являются точными и вы- ражают лишь некоторую среднюю, массовую закономерность, тенден- цию, от которой в каждом отдельном случае возможны отступления. В вышеприведенном примере мы имели дело со случаем явно выраженной зависимости. Рассмотрим теперь такие две случайные величины: X — рост наугад взятого человека; Z— его возраст. Очевидно, для взрослого человека величины X и Z можно считать практически независимыми; напротив, для ребенка величины X и Z являются зависимыми. Приведем еще несколько примеров случайных величин, находя- щихся в различных степенях зависимости. 1. Из камней, составляющих кучу щебня, выбирается наугад один камень. Случайная величина Q— вес камня; случайная величина L — наибольшая длина камня. Величины Q и L находятся в явно выраженной вероятностной зависимости. 2. Производится стрельба ракетой в заданный район океана. Величина ДХ — продольная ошибка точки попадания (недолет, пере- лет); случайная величина ДУ — ошибка в скорости ракеты в конце активного участка движения. Величины ДХ и ДУ явно зависимы, так как ошибка ДУ является одной из главных причин, порождаю- щих продольную ошибку ДХ.
8.6] ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН 175 3. Летательный аппарат, находясь в полете, измеряет высоту над поверхностью Земли с помощью барометрического прибора. Рас- сматриваются две случайные величины: Д//— ошибка измерения вы- соты и G — вес топлива, сохранившегося в топливных баках к мо- менту измерения. Величины Д/У и О практически можно считать независимыми. В следующем п° мы познакомимся с некоторыми числовыми харак- теристиками системы случайных величин, которые дадут нам возмож- ность оценивать степень зависимости этих величин. 8.6. Числовые характеристики системы двух случайных величин, Корреляционный момент. Коэффициент корреляции В главе 5 мы ввели в рассмотрение числовые характеристики одной случайной величины X— начальные и центральные моменты различных порядков. Из этих характеристик важнейшими являются две: математическое ожидание тх и дисперсия Dx. Аналогичные числовые характеристики — начальные и центральные моменты различных порядков — можно ввести и для системы двух случайных величин. Начальным моментом порядка A, s системы (X, К) называется математическое ожидание произведения Хк на И: ал>4 = Л1[Х‘И. (8.6.1) Центральным моментом порядка kt s системы (Xt Y) назы- вается математическое ожидание произведения Л-й и 5-й степени соответствующих центрированных величин: = (8.6.2) rue X — X — тх, Y— Y — ту. Выпишем формулы, служащие для непосредственного подсчета моментов. Для прерывных случайных величин (8.6.3) = 2 —«у/Л/. (8-6.4) где ру — Р ( (X = х,) (Y = уу)) — вероятность того, что система (X, Y) примет значения (хр уу), а суммирование распространяется по всем возможным значениям случайных величин Xt Y.
176 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 8 Для непрерывных случайных величин: со a».t = f f x*y7(x> y)dxdy, (8.6.5) — ОО оо ь. J = f f(x — тх)“ (У — л»уУ/ (*. У) dx dy, (8.6.6) ~оо где /(х, у)— плотность распределения системы. Помимо чисел k и 5, характеризующих порядок момента по от- ношению к отдельным величинам, рассматривается еще суммарный порядок момента равный сумме показателей степеней при Л' и К. Соответственно суммарному порядку моменты классифицируются на первые, вторые и т. д. На практике обычно применяются только первые и вторые моменты. Первые начальные моменты представляют собой уже известные нам математические ожидания величин Л* и У, входящих в систему: тх = аь 0 = М (X1 И = М [X], ту = а0.1 = Л1И0И] = Л11П. Совокупность математических ожиданий тх, ту представляет собой характеристику положения системы. Геометрически это коор- динаты средней точки на плоскости, вокруг которой происходит рас- сеивание точки (X, Y). Кроме первых начальных моментов, на практике широко при- меняются еще вторые центральные моменты системы. Два из них представляют собой уже известные нам дисперсии величин X и К: Dx = 1*2, о = М[ X2 И = ЛЦХ2) = D (X]. Dy = |*0.2 = М 1*° И] = М [И] = D [И. характеризующие рассеивание случайной точки в направлении осей Ох и Оу. Особую роль как характеристика системы играет второй сме- шанный центральный момент'. Иъ1 = лцхи, т. е. математическое ожидание произведения центрированных величин. Ввиду того, что этот момент играет важную роль в теории систем случайных величин, введем для него особое обозначение: Кху — М\Х Y} = М 1(Х — тх) (Y — ту)]. (8.6.7) Характеристика Кху называется корреляционным моментом (иначе—«моментом связи») случайных величин X, Y.
8.6J ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН 177 Для прерывных случайных величин корреляционный момент вы- ражается формулой кху = S 2 — тх) (уу — tny) pi}, (8.6.8) * / а для непрерывных — формулой оо ^xy = f f (х—тх)(у — ту)/(х, y)dxdy. (8.6.9) — ОО Выясним смысл и назначение этой характеристики. Корреляционный момент есть характеристика системы случайных величин, описывающая, помимо рассеивания величин X и F, еще и связь между ними. Для того чтобы убедиться в этом, докажем, что для независимых случайных величин корреляционный момент равен нулю. Доказательство проведем для непрерывных случайных величин1). Пусть X, Y — независимые непрерывные величины с плотностью распределения /(х, у). В п° 8.5 мы доказали, что для независимых величин /(х, у) = Л(х)/2(у), (8.6.10) где /](х), /2 (У) — плотности распределения соответственно величин X и К. Подставляя выражение (8.6.10) в формулу (8.6.9), видим, что интеграл (8.6.9) превращается в произведение двух интегралов: оо со Кху = /<х~ тх) fl (•*) dx J (У — «у) ft (У) <*У- -ОО -00 Интеграл со / (х — mx)fx(x)dx — ОО представляет собой не что иное, как первый центральный момент величины X» и. следовательно, равен нулю; по той же причине равен нулю и второй сомножитель; следовательно, для независимых слу- чайных величин Кху = 0. Таким образом, если корреляционный момент двух случайных величин отличен от нуля, это есть признак наличия зависи- мости между ними. Из формулы (8.6.7) видно, что корреляционный момент характе- ризует не только зависимость величин, но и их рассеивание. Дей- ствительно, если, например, одна из величин (X, Y) весьма мало отклоняется от своего математического ожидания (почти не случайна), 9 Для прерывных оно может быть выполнено аналогичным способом.
178 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 8 (8.6.11) Рис. 8.6.1, то корреляционный момент будет мал, какой бы тесной зависимостью ни были связаны величины (X, У). Поэтому для характеристики связи между величинами (X, У) в чистом виде переходят от момента к безразмерной характеристике Кху где — средние квадратические отклонения величин X, У. Эта характеристика называется коэффициентом корреляции величин X и У. Очевидно, коэффициент корреляции обращается в нуль одновременно с корреляционным моментом; следовательно, для не- зависимых случайных величин коэффициент корреляции равен нулю. Случайные величины, для которых корреляционный момент (а зна- чит, и коэффициент корреляции) равен нулю, называются некорре- лированными (иногда — «несвязанными»). Выясним, эквивалентно ли понятие некоррелированности случайных величин понятию независимости. Выше мы доказали, что две независимые случайные величины всегда являются некоррелированными. Остается выяснить: справедливо ли обрат- ное положение, вытекает ли из некоррели- рованности величин их независимость? Оказывается — нет. Можно построить при- меры таких случайных величин, которые являются некоррелированными, но зави- симыми. Равенство нулю коэффициента корреляции — необходимое, но не доста- точное условие независимости случайных величин. Из независимости случайных величин вытекает их некоррелирован- ность; напротив, из некоррелирован- не следует их независимость. Условие неза- ности величин еще висимости случайных величин — более жесткое, чем условие некор- релированности. Убедимся в этом на примере. Рассмотрим систему случайных величин (X, У), распределенную с равномерной плотностью внутри круга С радиуса г с центром в начале координат (рис. 8.6.1). Плотность распределения величин (X, У) выражается формулой (с при х2Н-у2<г2, Д*.У)= А .2^.2 ^.2 Из условия У* / f(x.y)dxdy = j* J* cdxdy — l находим с — ^. -оэ (С)
8.6] ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН 179 Нетрудно убедиться, что в данном примере величины являются зависимыми. Действительно, непосредственно ясно, что если ве- личина X приняла, например, значение 0, то величина Y может с равной вероятностью принимать все значения от —г до -)-г; если же величина X приняла значение г, то величина Y может при- нять только одно-единственное значение, в точности равное нулю; вообще, диапазон возможных значений Y зависит от того, какое значение приняла X. Посмотрим, являются ли эти величины коррелированными. Вычис- лим корреляционный момент. Имея в виду, что по соображениям сим- метрии тх = ту — 0, получим: Кху—'f f xyf(x, y)rfxdy = -^/ Jxydxdy. (8.6.12) (C) (C) Для вычисления интеграла разобьем область интегрирования (круг С) на четыре сектора Ср С2, С3, С4, соответствующие четырем коор- динатным углам. В секторах Cj и С3 подынтегральная функция положительна, в секторах С2 и С4 —отрицательна; по абсолютной же величине интегралы по этим секторам равны; следовательно, инте- грал (8.6.12) равен нулю, и величины (Xt Y) не коррелированы. Таким образом, мы видим, что из некоррелированности случай- ных величин не всегда следует их независимость. Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятност- ная зависимость случайных величин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или же убывать) по линейному закону. Эта тенденция к линейной зависимости может быть более или менее ярко выражен- ной, более или менее приближаться к функциональной, т. е. самой тесной линейной зависимости. Коэффициент корреляции характе- ризует степень тесноты линейной зависимости между случайными величинами. Если случайные величины X и Y связаны точной линейной функциональной зависимостью: Y — aX-^-b, то гху= ±1» причем знак «плюс» или «минус» берется в зависимости от того, положителен или отрицателен коэффициент а, В общем случае, когда величины X и Y связаны произвольной вероятностной зависимостью, коэффициент корреляции может иметь значение в пре- делах: ~1<ГЖУ<1’). Доказательство этих положений будет дано ниже, в п° 10.3, после того как мы познакомимся с некоторыми теоремами теории вероятностей, кото- рые позволят провести его очень просто.
180 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 8 В случае гху>0 говорят о положительной корреляции вели- чин X и Yt в случае гжу<0— об отрицательной корреляции. Положительная корреляция между случайными величинами озна- чает.. что при возрастании одной из них другая имеет тенденцию в среднем возрастать; отрицательная корреляция означает, что при возрастании одной из случайных величин другая имеет тенденцию в среднем убывать. В рассмотренном примере двух случайных величин (X, Y), рас- пределенных внутри круга с равномерной плотностью, несмотря на наличие зависимости между X и К, линейная зависимость отсут- ствует; при возрастании X меняется только диапазон изменения К, а его среднее значение не меняется; естественно, вели- чины (X, Y) оказываются некоррелированными. Приведем несколько примеров случайных величин с положитель- ной и отрицательной корреляцией. 1. Вес и рост человека связаны положительной корреляцией. 2. Время, потраченное на регулировку прибора при подготовке его к работе, и время его безотказной работы связаны положитель- ной корреляцией (если, разумеется, время потрачено разумно). Наоборот, время, потраченное на подготовку, и количество неисправ- ностей, обнаруженное при работе прибора, связаны отрицательной корреляцией. 3. При стрельбе залпом координаты точек попадания отдельных снарядов связаны положительной корреляцией (так как имеются общие для всех выстрелов ошибки прицеливания, одинаково откло- няющие от цели каждый из них). 4. Производится два выстрела по цели; точка попадания первого выстрела регистрируется, и в прицел вводится поправка, пропорцио- нальная ошибке первого выстрела с обратным знаком. Координаты
8.6] ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН 181 точек попадания первого и второго выстрелов будут связаны отри- цательной корреляцией. Если в нашем распоряжении имеются результаты ряда опытов над системой двух случайных величин (А\ К), то о наличии или отсутствии существенной корреляции между ними легко судить в первом при- ближении по графику, на котором изображены в виде точек все полученные из опыта пары значений слу- чайных величин. Например, если.наблюденные пары зна- чений величин расположи- лись так, как показано на рис. 8.6.2, то это указывает на наличие явно выражен- ной положительной корреля- ции между величинами. Еще более ярко выраженную положительную корреляцию, близкую к ли- нейной функциональной зависимости, наблюдаем на рис. 8.6.3. На рис. 8.6.4 показан случай сравнительно слабой отрицательной корре- ляции. Наконец, на рис. 8.6.5 иллюстрируется случай практически Рис. 8.6.5. некоррелированных случайных величин. На практике, перед тем как исследовать корреляцию случайных величин, всегда полезно предвари- тельно построить наблюденные пары значений на графике для первого качественного суждения о типе корреляции. Способы определения характеристик системы случайных величин из опыта будут освещены в гл. 14.
182 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 8 8.7. Система произвольного числа случайных величин На практике часто приходится рассматривать системы более чем двух случайных величин. Эти системы интерпретируются как слу- чайные точки или случайные векторы в пространстве того или иного числа измерений. Приведем примеры. 1. Точка разрыва дистанционного снаряда в пространстве харак- теризуется тремя декартовыми координатами (X, Yt Z) или тремя сферическими координатами (/?, Ф, 0). 2. Совокупность п последовательных измерений изменяющейся величины X — система п случайных величин (Л\, X2t ..., Л’я). 3. Производится стрельба очередью из п снарядов. Совокупность координат п точек попадания на плоскости — система 2п случайных величин (абсцисс и ординат точек попадания): (Xv Х2.......Ха, Yv Y2........Y„). 4. Начальная скорость осколка — случайный вектор, характери- зуемый тремя случайными величинами: величиной скорости Vo и двумя углами Ф и 0, определяющими направление полета осколка в сфе- рической системе координат. Полной характеристикой системы произвольного числа случайных величин служит закон распределения системы, который может быть задан функцией распределения или плотностью распределения. Функцией распределения системы п случайных величин (Хг, Х2......Хп) называется вероятность совместного выполнения п неравенств вида Xt < xL: ' F(xP х2, .... xa) = P((Xj < xt)(X2 < x2) ... (Xn < x„)). (8.7.1) Плотностью распределения системы n непрерывных случайных величин называется л-я смешанная частная производная функции FCxp х2......х„), взятая один раз по каждому аргументу: х2....Х^- дх.дх,:.^^- (8-7-2) Зная закон распределения системы, можно определить законы распределения отдельных величин, входящих в систему. Функция распределения каждой из величин, входящих в систему, получится, если в функции распределения системы положить все остальные аргументы равными оо: F1(x1) = F(x1, оо.....оо). (8.7.3) Если выделить из системы величин (Хр Х2-, ...» Хп) частную систему (Xv Х2......Xk)t то функция распределения этой системы определяется по формуле Pi,2,.... k(xi, Xi, xft) = F(xi, х2.....Xk. oo.......oo). (8.7.4)
8.71 СИСТЕМА ПРОИЗВОЛЬНОГО ЧИСЛА СЛУЧАЙНЫХ ВЕЛИЧИН 183 Плотность распределения каждой из величин, входящих в систему, получится, если плотность распределения системы проинтегрировать в бесконечных пределах по всем остальным аргументам: • ОО оо f ••• //(•*!• Х2......*»)dx2 • • • dxn- (8.7.5) — СО —00 Плотность распределения частной системы (Л\, Х2.........ЛГЛ). выделенной из системы (А\, Х2, ...» Хп), равна: /1.2, ...» л(х1’ х2.Xk)~ со оо * = J* ... J f (Хр х2, ...» хл) ^хл+1 •.. dxn. (8.7.6) —оо —оо Условным законом распределения частной системы (Хр Х2, ...., Хк) называется ее закон распределения, вычисленный при условии, что остальные величины Xk^v ..., Хп приняли значения хл+1......хл. Условная плотность распределения может быть вычислена по формуле /(*>..................!(х,,2:",Хя)х}‘ <8J-7> 'k+l...n[xk + V •••» хп) Случайные величины (Л\, Х2.....Хп) называются независимыми, если закон распределения каждой частной системы, выделенной из системы (Xv Х2, .... Хп), не зависит от того, какие значения при- няли остальные случайные величины. Плотность распределения системы независимых случайных вели- чин равна произведению плотностей распределения отдельных вели- чин, входящих в систему: /(Хр х2, ...» хл) = fi (Xj) f2 (х2) ... fnkxn)* (8.7.8) Вероятность попадания случайной точки (Хр Х2......Х^ в пре- делы n-мерной области D выражается n-кратным интегралом: Р^Ху Х2........Xa)<=D) = = / ... f f(xv х2, x^dxxdx2 ... dxn. (8.7.9) (0) Формула (8.7.9) по существу является основной формулой для вычисления вероятностей событий, не сводящихся к схеме случаев. Действительно, если интересующее нас событие А не сводится к схеме случаев, то его вероятность не может быть вычислена непо- средственно. Если при этом нет возможности поставить достаточное число однородных опытов и приближенно определить вероятность события А по его частоте, то типичная схема вычисления вероятности
184 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 8 события сводится к следующему. Переходят от схемы событий к схеме случайных величин (чаще всего — непрерывных) и сводят событие А к событию, состоящему в том, что система случайных величин (АГР Х2, ..., Хп) окажется в пределах некоторой области Ь. Тогда вероятность события А может быть вычислена по формуле (8.7.9). Пример 1. Самолет поражается дистанционным снарядом при условии, если разрыв снаряда произошел не далее чем на расстоянии R от самолета (точнее, от условной точки на оси самолета, принимаемой за его центр). Закон распределения точек разрыва дистанционного снаряда в системе коор- динат, связанной с целью, имеет плотность /(х, у, г). Определить вероят- ность поражения самолета. Решение. Обозначая поражение самолета буквой А, имеем: у, z) dx dy dzt (С) где интегрирование распространяется по шару С радиуса R с центром в начале координат. Пример 2. Метеорит, встретившийся на пути искусственного спутника Земли, пробивает его оболочку, если: 1) угол 0, под которым метеорит встречается с поверхностью спутника, заключен в определенных преде- лах (Op 02); 2) метеорит имеет вес не менее qQ (г) и 3) относительная ско- рость встречи метеорита со спутником не меньше v0 (м/сек). Скорость встречи v, вес метеорита q и угол встречи 0 представляют собой систему случайных величин ,с плотностью распределения f (v, qt 0). Найти вероят- ность р того, что отдельный метеорит, попавший в спутник, пробьет его оболочку. Решение. Интегрируя плотность распределения / (v, q, 0) по трех- мерной области, соответствующей пробиванию оболочки, получим: vmax ^тах ®2 J* f (v, q> 0) dv dq dO, «1 где 9max — максимальный вес метеорита, vmax — максимальная скорость встречи. 8.8. Числовые характеристики системы нескольких случайных величин Закон распределения системы (заданный функцией распределения или плотностью распределения) .является полной, исчерпывающей характеристикой системы нескольких случайных величин. Однако очень часто такая исчерпывающая характеристика не может быть применена. Иногда ограниченность экспериментального материала не дает возможности построить закон распределения системы. В других случаях исследование вопроса с помощью сравнительно громоздкого аппарата законов распределения не оправдывает себя в связи с не- высокими требованиями к точности результата. Наконец, в ряде
8.8] ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ НЕСКОЛЬКИХ ВЕЛИЧИН 185 задач примерный тип закона распределения (нормальный закон) известен заранее и требуется только найти его характеристики. Во всех таких случаях вместо законов распределения применяют неполное, приближенное описание системы случайных величин с по- мощью минимального количества числовых характеристик. Минимальное число характеристик, с помощью которых может быть охарактеризована система п случайных величин Xv Х2» ...» Хп9 сводится к следующему: 1) п математических ожиданий т2............................тл, характеризующих средние значения величин; 2) п дисперсий Dp D2, .... Drt, характеризующих их рассеивание; 3) л (л— 1) корреляционных моментов K^MlXtXfl где Xt== Х[ ““ Xj === Xj tftji характеризующих попарную корреляцию всех величин, входящих в систему. Заметим, что дисперсия каждой из случайных величин Х{ есть, по существу, не что иное, как частный случай корреля- ционного момента, а именно корреляционный момент вели- чины Xi и той же величины Xt: Dt = Ku = М [ X*] = М {Xt Xt], Все корреляционные моменты и дисперсии удобно расположить в виде прямоугольной таблицы (так называемой матрицы): Кп К12...Х1а ^21 Кгг • • • ^2п «т КЛ.*.КМ Эта таблица называется корреляционной матрицей системы слу- чайных величин (Хр Х2, .... Хп). Очевидно, что не все члены корреляционной матрицы различны. Из определения корреляционного момента ясно, что т. е. элементы корреляционной матрицы, расположенные симме- трично по отношению к главной диагонали, равны. В связи
186 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 8 с этим часто заполняется не вся корреляционная матрица, а лишь ее половина, считая от главной диагонали: ... Kia Кпп Корреляционную матрицу, составленную из элементов Кц, часто сокращенно обозначают символом ||KZy||. По главной диагонали корреляционной матрицы стоят дисперсии случайных величин Хх, Х2, ..., Хп. В случае, когда случайные величины Хх. Х2, Хп не корре- лированы, все элементы корреляционной матрицы, кроме диагональ- ных, равны нулю: О О О Dn Такая матрица называется диагональной. В целях наглядности суждения именно о коррелирован- но ст и случайных величин безотносительно к их рассеиванию часто вместо корреляционной матрицы ||^;|| пользуются нормированной корреляционной матрицей Цг^Ц, составленной не из корреляцион- ных моментов, а из коэффициентов корреляции: где Г = К“ ГЧ в^ву ’ ai — aj — Все диагональные элементы этой матрицы, естественно, равны еди- нице. Нормированная корреляционная матрица имеет вид: В 1
8.8) ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ НЕСКОЛЬКИХ ВЕЛИЧИН 187 Введем понятие о некоррелированных системах случайных величин (иначе — о некоррелированных случайных векторах). Рассмотрим две системы случайных величин: (*р *2.....хпу. (ГР Г2........Г„) или два случайных вектора в n-мерном пространстве: X с составляю- щими (Хр Х2, ...» Хл) и К с составляющими (Кр К2, ...» Yл). Случайные векторы X и Y называются некоррелированными, если каждая из составляющих вектора X не коррелирована с каждой из составляющих вектора Y: ХЖ/Уу=Л1[Х/Гу] = 0 при Z=1.........л; /=1........п.
ГЛАВА 9 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН 9.1. Нормальный закон на плоскости Из законов распределения системы двух случайных величин имеет смысл специально рассмотреть нормальный закон, как имеющий наи- большее распространение на практике. Так как система двух слу- чайных величин изображается случайной точкой на плоскости, нор- мальный закон для системы двух величин часто называют «нормальным законом на плоскости». В общем случае плотность нормального распределения двух слу- чайных величин выражается формулой 1 1 2(1 \х-тху* (х^тх)(у^ту) (У-ту)*1 ^2 5^7 + I х * У J (9.1.1) Этот закон зависит от пяти параметров: /пж, /лу, ау и г. Смысл этих параметров нетрудно установить. Докажем, что пара- метры ту представляют собой математические ожидания (центры рассеивания) величин X и К; ож, ау— их средние квадратические отклонения; г — коэффициент корреляции величин X и У. Для того чтобы убедиться в этом, найдем прежде всего плот- ность распределения для каждой из величин, входящих в систему. Согласно формуле (8.4.2) /1(х) = f f(x, y)dy = — ОО 1 Г(х“'пх)1 2г (дг-тх)(у-ту) 2лахау УЛ —г2 J X у dy. —оо
9.П НОРМАЛЬНЫЙ закон на плоскости 189 Вычислим интеграл 1 Г(х-тх)’ 2г(х-тх)(’’-’ву) 0'-"’у)* ~ -2(1-Н) .2 - + .2 / = J * L х * -оо Положим: тогда л —тх у — ту ----т=г = и. ----т=- = v; «жК2 . ву ^2 , лГп Г -T—it^-iruv+v’l 7 — ау у 2 j е 1 r dv. — СО dy. (9.1.2) Из интегрального исчисления известно, что /°° /--- лс-в» e-AS±2Bx+C dx== 1/ е~ А 1). (9.1.3) — ОО В нашем случае Л = Т^ * = C = T^F- Подставляя эти значения в формулу (9.1.3), имеем: / = / 2]/к(1—г2) е-“’, откуда /1W='7Vsr'-“'' 9 g у £Л или, учитывая (9.1.2), (х-стх)* 1 ” 2<т2 Х ‘ (9ЛЛ) 9Х у Таким образом, величина X подчинена нормальному закону с центром рассеивания тх и средним квадратическим отклонением аж. Аналогично покажем, что (У—у)* /2(У)=-т-Г^-‘ У ’ <9л-5> 9у у Z1Z т. е. величина Y подчинена нормальному закону с центром рассеи- вания Шу и средним квадратическим отклонением оу. !) Для вычисления интеграла (9.1.3) достаточно дополнить показатель степени до полного квадрата и после замены переменной воспользоваться интегралом Эйлера — Пуассона (6.1.3).
190 нормальный закон распределения для СИСТЕМЫ ВЕЛИЧИН (ГЛ. 9 Остается доказать, что параметр г в формуле (9.1.1) предста- вляет собой коэффициент корреляции величин X и Y. Для этого вычислим корреляционный момент: со Kxy = f f (Х~ ~ тУ> f ('Х' dx dy' — 00 где тх. ту — математические ожидания величин X и К. Подставляя в эту формулу выражение /(х, у), получим: оо К" = //(х ~ (у ~ е'Л “ ” dx (9-' 6) * —оо где . . . 1 Г (х— т*? 2г(х — тх)(у — ту) (у— т ,)21 Л (х, у) = — —-------- ----j------------------------ Ч----. 2(1—Г2) £ <£ ау;у °У J Произведем в двойном интеграле (9.1.6) замену переменных, положив: х — тх 1 /у — ту = ц* , - | i er/2 )/2(1—г2) \ Якобиан преобразования равен 2ах<3у У 1 — г2, следовательно, оо = /(«^V^V2(l-/-sj(W + 2®х’у/1— г* /• / г= / ue~u du I —оо -оо • я Учитывая, что ОО 00 У* «е~и’</«= У* дае-®* dto = 0; «оо —со -< J* dw з» те —со х — тх \ г-, )=w. (9.1.7) / ю 1^е~‘а,г dv>~{- со со У* аге-“’<7й У* t~wl dvu. -со —со со У* tt2r“’da=-^-| 30 •
9.1J НОРМАЛЬНЫЙ ЗАКОН НА ПЛОСКОСТИ 191 имеем: *ху r— a G • (9.1.8) л у Таким образом, доказано, что параметр г в формуле (9.1.1) пред- ставляет собой коэффициент корреляции величин X и Y. Предположим теперь, что случайные величины X и К, подчинен- ные нормальному закону на плоскости, не коррелированы; положим в формуле (9.1.1) г = 0. Получим: (x-mj2 (У-му)2 Легко убедиться, что случайные величины (JV, К), подчиненные закону распределения с плотностью (9.1.9), не только не коррели- рованы, но и независимы. Действительно, (Х-mJ2 (У-^у)2 1 ”** 2 1 ” 2 2°х т. е. плотность распределения системы равна произведению плотно- стей распределения отдельных величин, входящих в систему, а это значит, что случайные величины (Xt Y) независимы. Таким образом, для системы случайных величин, подчиненных нормальному закону, из некоррелированности величин вытекает также их независимость. Термины «некоррелированные» и «независимые» величины для случая нормального распределения эквивалентны. При г=#0 случайные величины (X, Y) зависимы. Нетрудно убе- диться, вычисляя условные законы распределения по формулам (8.4.6), что Проанализируем один из этих условных законов распределения, например /(у|х). Для этого преобразуем выражение плотности /(у|х) к виду: _____!___Г ey I2 ву К1 —Гг .
192 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИН (ГЛ. 9 Очевидно, это есть плотность нормального закона с центром рас-. сеивания ту\х = т — тх) (9.1.10) и средним квадратическим отклонением = —А (9.1.11) Формулы (9.1.10) и (9.1.11) показывают, что в условном законе распределения величины Y при фиксированном значении X = х от этого значения зависит только математическое ожидание, но не дисперсия. Величина ту\х называется условным математическим ожи- данием величины Y при данном х. Зависимость (9.1.10) можно изо- бразить на плоскости хОу. откладывая условное математическое ожи- дание ту\х по оси ординат. Получится прямая, которая называется линией регрессии Y на X. Аналогично прямая Х = тх^г^-(у — ту) (9.1.12) есть линия регрессии X на Y. Линии регрессии совпадают только при наличии линейной функ- циональной зависимости Y от X. При независимых X и Y линии регрессии параллельны координатным осям. Рассматривая выражение (9.1.1) для плотности нормального рас- пределения на плоскости, мы видим, что нормальный закон на плоскости полностью определяется заданием пяти параметров: двух координат центра рассеивания тх, ту, двух средних квадратических отклоне- ний ах, ау и одного коэффициента корреляции г. В свою очередь последние три параметра ах, ау и г полностью определяются эле- ментами корреляционной матрицы: дисперсиями Dxt Dy и корреля- ционным моментом КхГ Таким образом, минимальное количество числовых характеристик системы — математические ожидания, диспер- сии и корреляционный момент — в случае, когда система подчинена нормальному закону, определяет собой полностью закон распределе- ния, т. е. образует йенерпывающую систему характеристик. Так как на практике нормальный закон весьма распространен, то очень часто для полной характеристики закона распределения системы оказывается достаточно задать минимальное число — всего пять — числовых характеристик.
9.2] ЭЛЛИПСЫ РАССЕИВАНИЯ. ПРИВЕДЕНИЕ НОРМАЛЬНОГО ЗАКОНА 193 9.2. Эллипсы рассеивания. Приведение нормального закона к каноническому виду Рассмотрим поверхность распределения, изображающую функцию (9.1.1). Она имеет вид холма, вершина которого находится над точ- кой (тх, ту) (рис. 9.2.1). В сечении поверхности распределения плоскостями, параллельными оси / (х, у), получаются кривые, подобные нормальным кривым рас- пределения. В сечении поверхности распределения плоскостями, парал- лельными плоскости хОу, получаются эллипсы. Напишем уравнение проекции такого эллипса на плоскость хОу: (х—тх)г 2г(х —даж)(у —ту) (у — ту)г -----я-----------------------—-------5-i— =s const, или, обозначая константу X2, Уравнение эллипса (9.2.1) можно проанализировать обычными ме- тодами аналитической геометрии. Применяя их, убеждаемся, что центр эллипса (9.2.1) находится в точке с координатами (тх, ту); что ка- сается направления .осей сим- метрии эллипса, то они со- ставляют с осью Ох углы, определяемые уравнением tg2a=4^T1)- (9.2.2) а — а У Это уравнение дает два зна- чения углов: а и ар разли- чающиеся на у • Таким образом, ориента- ция эллипса (9.2.1) относи- тельно координатных осей находится в прямой зависи- мости от коэффициента кор- реляции г системы (X. К); если величины не коррелированы (т. е. в данном случае и независимы), то оси симметрии эллипса парал- лельны координатным осям; в противном случае они составляют с координатными осями некоторый угол. *) Обоснование формулы (9.2.2) другим способом см. в п° 14.7. . 13-3015
194 НОРМАЛЬНЫЙ закон распределения для СИСТЕМЫ ВЕЛИЧИН (ГЛ. 9 Пересекая поверхность распределения плоскостями, параллельными плоскости хОу, и проектируя сечения на плоскость хОу, мы полу- чим целое семейство подобных и одинаково расположенных эллипсов с общим центром (тж. ту). Во всех точках каждого из таких эллип- сов плотность распределения f(x. у) постоянна. Поэтому такие эл- липсы называются эллипсами равной плотности или, короче, эллипсами рассеивания. Общие оси всех эллипсов рассеивания называются главными осями рассеивания. Известно, что уравнение эллипса принимает наиболее простой, так называемый «канонический» вид, если координатные оси совпа- дают с осями симметрии эллипса. Для того чтобы привести уравне- ние эллипса рассеивания к каноническому виду, достаточно перенести начало координат в точку (тх, ту) и повернуть координатные оси на угол а, определяемый уравнением (9.2.2). При этом координатные оси совпадут с главными осями рассеивания, и нормальный закон на плоскости преобразуется к так называемому «каноническому» виду. Каноническая форма нормального закона на плоскости имеет вид: /(5. г[) = -~— е 2°1 а4, где <%. а^—так называемые главные средние квадратические от- клонения, т. е. средние квадратические отклонения случайных величин (S, Н), представляющих собой координаты случайной точки в системе координат, определяемой главными осями рассеивания ОВ, Оц. Глав- ные средние квадратические отклонения и «, выражаются через средние квадратические отклонения в прежней системе координат формулами: о2 св я2 cos2 а 4- гаЛау sin 2а -|- а2 sin2 а, с2 sbs a2* sin2 а — гажау sin 2а 4~ в2 cos2 а. Обычно, рассматривая нормальный закон на плоскости, стараются варанее выбрать координатные оси Ох, Оу так,. чтобы они совпали с главными осями рассеивания. При этом средние квадратические отклонения по осям аж, ау и будут главными средними квадратиче- скими отклонениями, и нормальный закон будет иметь вид: X* у3 (9.2.3) (9.2.4) i-e (9.2.5) В некоторых случаях координатные оси выбирают параллельно главным осям рассеивания, но начало координат с центром рассеива- Вывод этих формул см. в главе 14» п° 14.7.
9.2) ЭЛЛИПСЫ РАССЕИВАНИЯ. ПРИВЕДЕНИЕ НОРМАЛЬНОГО ЗАКОНА 195 ния не совмещают. При этом случайные величины (X, Е) также ока- зываются независимыми, но выражение нормального закона имеет вид: (ж-тж)* (У-ту)» /<*•*>=24^ ’ <9-2-6> где тх, ту— координаты центра рассеивания. Перейдем в канонической форме нормального закона (9.2.5) от средних квадратических отклонений к вероятным отклонениям: £ж = р]/Тах; £у = р/2"вг Величины Ех, Еу называются главными вероятными отклонениями. Подставляя выражения ах, ау через Ех, Еу в уравнение (9.2.5), по- лучим другую каноническую форму нормального закона: .. -'(тнн k ‘ О-2-7» В такой форме нормальный закон часто применяется в теории стрельбы. Напишем уравнение эллипса рассеивания в каноническом виде: f+f-*1 м“ <^+4)’-=1' <9А8> где k — постоянное число. Из уравнения видно, что полуоси эллипса рассеивания пропорцио- нальны главным средним квадратическим отклонениям (а значит, и главным вероятным отклонениям). Назовем «единичным» эллипсом рассеивания тот из эллипсов равной плотности вероятности, полуоси которого равны главным средним квадратическим отклонениям ох, ау. (Если пользоваться в качестве характеристик рассеивания не главными средними квадра- тическими, а главными вероятными отклонениями, то естественно будет назвать «единичным» тот эллипс, полуоси которого равны Ех, Еу.) Кроме единичного эллипса рассеивания иногда рассматривают еше «полный» эллипс рассеивания, под которым понимают тот из эллип- сов равной плотности вероятности, в который с практической досто- верностью укладывается все рассеивание. Размеры этого эллипса, разумеется, зависят от того, что понимать под «практической досто- верностью». В частности, если принять за «практическую достовер- ность» вероятность порядка 0,99, то «полным эллипсом рассеива- ния» можно считать эллипс с полуосями Зож, Зоу.
196 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИН (ГЛ. 9 Рассмотрим специально один частный случай, когда главные средние квадратические отклонения равны друг другу: = = Тогда все эллипсы рассеивания обращаются в круги, и рассеива- ние называется круговым. При круговом рассеивании каждая из осей, проходящих через центр рассеивания, может быть принята за главную ось рассеивания, или, другими словами, направление главных осей рассеивания неопределенно. При некруговом рассеивании случайные величины X, Y, подчиненные нормальному закону на плоскости, не- зависимы тогда и только тогда, когда координатные оси параллельны главным осям рассеивания; при круговом рассеивании случайные ве- личины (X, К) независимы при любом выборе прямоугольной системы координат. Эта особенность кругового рассеивания приводит к тому, что оперировать с круговым рассеиванием гораздо удобнее, чем с эллиптическим. Поэтому на практике, где только возможно, стре- мятся приближенно заменять некруговое рассеивание круговым. 9.3, Вероятность попадания в прямоугольник со сторонами, параллельными главным осям рассеивания Пусть случайная точка (X, Y) на плоскости подчинена нормаль- ному закону Рис, 9.3.1. -"ж)* (>-"»>)* 2.2 2»2 "х у (9.3.1) При этом главные оси рассеива- ния параллельны координатным осям и величины X и Y независимы. Требуется вычислить вероятность попадания случайной точки (Xt Y) в прямоугольник /?, стороны кото- рого параллельны координатным осям хОу. а следовательно и глав- ным осям рассеивания (рис. 9.3.1). Согласно общей формуле (8.3.4) имеем: ? 8 Р((Х. Y)<zR) = f f f(x. y)dxdy = * a <x-w^ . /•1 “a.2 fl — / ----7= e Я dX / .7^7 g » dy.
9 31 ВЕРОЯТНОСТЬ ПОПАДАНИЯ В ПРЯМОУГОЛЬНИК 197 откуда, применяя формулу (6.3.3) для вероятности попадания на уча- сток, находим: Р((Х, Г) <=/?) = =[ф- -ф> [ф> (^) - *• С^)] • <9-з-2> где Ф*(х) — нормальная функция распределения. Если нормальный закон на плоскости дан в канонической форме, то /пл = /пу = 0, и формула (9.3.2) принимает вид Р({х. Ис/г)=[ф-(±)_Ф-(^)][ф-(Х)_Ф-(А.)]. (9.3.3) Если стороны прямоугольника не параллельны координатным осям, то формулы (9.3.2) и (9.3.3) уже неприменимы. Только при круговом рассеивании вероятность попадания в прямоугольник любой ориентации вычисляется по формулам (9.3.2) или (9.3.3). Формулы (9.3.2) и (9.3.3) широко применяются при вычислении вероят- ностей попадания в цели: прямо- угольные, близкие к прямоуголь- ным, составленные из прямоуголь- ников или приближенно заменяемые таковыми. Пример. Производится стрельба с самолета по прямоугольному щиту размером 9 м%12 м, лежащему на земле горизонтально. Главные вероят- ные отклонения: в продольном напра- влении Вд ® 10 м. в боковом направле- нии Вб ® 5 м. Прицеливание — по центру мишени, заход — вдоль мишени. Вслед- ствие несовпадения дальности при- стрелки и дальности фактической стрель- бы средняя точка попадания смещается Рис. 9.3.2. в сторону недолета на 4 ж. Найти вероятность попадания в мишень при одном выстреле. Решение. На чертеже (рис. 9.3.2} наносим мишень, точку прицелива- ния (т. п.) и центр рассеивания (ц. р.). Через ц. р. проводим главные оси рассеивания: по направлению полета и перпендикулярно к нему. Перейдем от главных вероятных отклонений Вл и В^ к главным сред- ним квадратическим: Bg В 3*= оЖ я7>4ж: оЖя 14,8 По формуле (9.3.3) имеем:
198 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИН [ГЛ. 9 9.4. Вероятность попадания в эллипс рассеивания К числу немногих плоских фигур, вероятность попадания в кото- рые может быть вычислена в конечном виде, принадлежит эллипс рассеивания (эллипс равной плотности). Пусть нормальный закон на плоскости задан в канонической форме: У1 •5 У)=25^е Рассмотрим эллипс рассеивания Вк, уравнение которого -2 2 К • ях где параметр k представляет собой отношение полуосей эллипса рассеивания к главным средним квадратическим отклонениям. По общей формуле (8.3.3) имеем: Р{{Х. 7)^)= f f fix. y)dxdy = (**) . . . (9.4.1) v'dxdy. (9.4.2) (9.4.3) Сделаем в интеграле (9.4.2) замену переменных «у Этой подстановкой эллипс Вк преобразуется в круг Ск радиуса k. Следовательно» Р((Х, Г)сВк) = -^/f rr'^dadv. (ск) Перейдем в интеграле (9.4.3) от декартовой системы координат к полярной, положив u = rcos0; v = rsin9. (9.4.4) Якобиан преобразования (9.4.4) равен г. Производя замену перемен- ных, получим: к Р((Х. Г)СВ,) = Х / j -х О Л Г» f 3 О е г
9.41 ВЕРОЯТНОСТЬ ПОПАДАНИЯ В ЭЛЛИПС РАССЕИВАНИЯ 199 Таким образом, вероятность попадания случайной точки в эллипс рассеивания, полуоси которого равны k средним квадратическим отклонениям, равна: k2 Р((Х, Г)<=Вй) = 1-е"2 . (9.4.5) В качестве примера найдем вероятность попадания случайной точки, распределенной по нормальному закону на плоскости хОу, в единичный эллипс рассеивания, полуоси которого равны средним квадратическим отклонениям: .Л = бл; Ь = аг Для такого эллипса k — 1. Имеем: Р((Х, Y)cBx)==l—e'2. Пользуясь ^таблицей 2 приложения, находим: Р((Х, У) с Bj) « 0,393. Формула (9.4.5) чаще всего применяется для вычисления вероят- ности попадания в круг при круговом рассеивании. Пример. На пути быстро движущейся малоразмерной цели площади 1,2 м ставится осколочное поле в форме плоского диска радиуса — 30 м. Внутри диска плотность осколков постоянна и равна 2 оск./ж2. Если цель на- крыта диском, то число осколков, попада- ющих в нее, можно считать распределен- ным по закону Пуассона. В силу малости цели можно рассматривать ее как точечную и считать, что она или полностью накры- вается осколочным полем (если ее центр попадает в круг), или совсем не накры- вается (если ее центр не попадает в круг). Попадание осколка гарантирует поражение цели. При прицеливании центр круга стремятся совместить в плоскости хОу с началом координат О (центром цели), но вследствие ошибок точка рассеи- вается около О (рис. 9.4.1). Закон рассеива- ния нормальный, рассеивание круговое, a s® 20 м. Определить вероятность пораже- ния цели Р (Л). Решение. Чтобы цель была пора- жена осколками, необходимо совмещение двух событий: 1) попадание цели (точки О) в осколочное поле (круг радиуса R) и 2) поражение цели при условии, что попадание произошло. Вероятность попадания цели в круг, очевидно, равна вероятности того, что центр круга (случайная точка Ot) попадет в круг радиуса Я, описанный вокруг начала координат. Применим формулу (9.4.0). Имеем: к = = 1,5.
200 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИН (ГЛ. 9 Вероятность попадания цели в осколочное поле равна: 1,5» р=1~ е 2 «0,675. Далее найдем вероятность поражения цели р* при условии, что она на- крыта осколочным диском. Среднее число осколков а, попадающих в на- крытую полем цель, равно произведению площади цели на плотность поля осколков: 1,2*2 = 2,4. Условная вероятность поражения цели р* есть не что иное, как вероят- ность попадания в нее хотя бы одного осколка. Пользуясь формулой (5.9.5) главы 5, имеем: p* = /?1==l— 0,909. Вероятность поражения цели равна: Р (А) = 0,675 * 0,909 « 0,613. Воспользуемся формулой (9.4.5) для вероятности попадания в круг, чтобы вывести одно важное для практики распределение: так называемое распределение Релея. Рассмотрим на плоскости хОу (рис. 9.4.2) случайную точку (X, К), рассеивающуюся вокруг начала координат О по круговому нормаль- Рис. 9.4.2. (А”, У) внутрь круга радиуса эта вероятность равна: F(r) = ному закону со средним квадра- тическим отклонением о. Найдем закон распределения случайной ве- личины R— расстояния от точки (X, Y) до начала координат, т. е. длины случайного вектора с соста- вляющими Xt Y. Найдем сначала функцию распре- деления F(r) величины R. По опре- делению F(r) = P(/?<r). Это есть не что иное, как ве- роятность попадания случайной точки г (рис. 9.4.2). По формуле (9.4.5) = 1— е~ 2. где k = 4, т. е. Г* F(r) = l— е"2’’. (9.4.6) Данное выражение функции распределения имеет смысл только при положительных значениях г; при отрицательных г нужно поло- жить F(r) = 0.
9.4] ВЕРОЯТНОСТЬ ПОПАДАНИЯ В ЭЛЛИПС РАССЕИВАНИЯ 201 Дифференцируя функцию распределения F(r) по г. найдем плот- ность распределения /(Г) = при при г>0, г<0. (9.4.7) . ♦ л 2о* & 0 О I и математическое ожидание тг. Г(г) а тг Рис. 9.4.3. Закон Релея (9.4.7) встречается в разных областях практики: в стрельбе» радиотехнике, электротехнике и др. График функции /(г) (плотности закона Релея) приведен на рис. 9.4.3. Найдем числовые характеристики величины R, распределенной по закону Релея, а именно: ее моду Для того чтобы найти моду — абсциссу точки, в которой плот- ность вероятности максимальна, продифференцируем / (г) и приравняем производную нулю: 1 —£==0; в2==А в- Корень этого уравнения и есть искомая мода о^==о. (9.4.8) Таким образом, наивероятней- шее значение расстояния R случай- ной точки (X, Y) от начала координат равно среднему квадратиче- скому отклонению рассеивания. Математическое ожидание тг найдем по формуле со со . mr — f rf(r)dr = У* dr. о о Производя замену переменной а К 2 получим: 00 оо тг = в У 2 f 2t2e~p t- 2te~p dt. . о 0 Интегрируя ния Rx по частям, найдем математическое ожидание расстоя- mf = а У 2 = 1,25а. & 1 (9.4.9)
202 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИН [ГЛ. 9 9.5. Вероятность попадания в область произвольной формы При стрельбе ударными снарядами вычисление вероятности по- падания в цель сводится к вычислению вероятности попадания слу- чайной точки (X, Y) в некоторую область D. Пусть случайная точка (Х% Y) подчинена нормальному закону в каноническом виде. Ве- роятность попадания точки (Xt Y) в область D выражается интегралом X2 уа ₽((Х. r) = D) = 5J?-/P (9.5.1) В отдельных частных случаях (например, когда область D есть прямоугольник со сторонами, параллельными главным осям рас- сеивания, или эллипс рассеивания, а. также в некоторых других, У имеющих меньшее практическое зна- чение) интеграл (9.5.1) может быть выражен через известные функции; в общем же случае этот интеграл через известные функции не выра- жается. На практике для вычисления вероятности попадания в область произвольной формы применяются следующие приближенные способы. 1. Область D приближенно за- меняется областью, составленной из —--------------------------------------— х прямоугольников, стороны которых ° параллельны главным осям рассеива- Рис. 9.5.1. ния (Рис- 9.5.1). Вероятность по- падания в каждый из таких прямо- угольников вычисляется по формуле (9.3.3). Этот способ можно рекомендовать тогда, когда число прямоугольников» на которые при- ближенно разбивается цель D, не слишком велико. 2. Вся плоскость хОу с помощью некоторой системы линий (прямых или кривых) заранее разбивается на ряд ячеек, вероятности попадания в которые могут быть выражены точно через известные функции, и вычисляется вероятность попадания в каждую ячейку. Такая система линий с соответствующими ей вероятностями попадания в ячейки называется сеткой рассеивания. Работа с сеткой заклю- чается в том, что изображение сетки накладывается на изображение цели, после чего производится суммирование вероятностей попадания в ячейки, накрытые целью; если цель накрывает часть ячейки, то берется часть вероятности попадания в ячейку, пропорциональная накрытой площади. Сетку рассеивания можно применять двояким образом: а) строить цель в масштабе сетки, б) строить сетку в масштабе цели.
9.5] ВЕРОЯТНОСТЬ ПОПАДАНИЯ В ОБЛАСТЬ ПРОИЗВОЛЬНОЙ ФОРМЫ 203 Если цель имеет сложные очертания й, особенно, если она срав* нительно невелика, бывает обычно удобнее построить на изображении цели в том же масштабе ту часть сетки, которая занята целью. Если же цель имеет сравнительно простые очертания и довольно велика (занимает значительную часть полного эллипса рассеивания). У / 0 0 / 0 0 0 0 / 0 0 0 0 0 0 / 0 1 0 1 0 0 1 0 0 0 0 0 0 1 / 1 0 1 0 1 0 1 0 0 1 0 0 0 0 2 1 1 1 1 1 0 1 0 1 0 0 1 0 0 г 2 1 1 Г 1 / 1 0 1 1 0 0 0 0 2 2 2 1 1 1 / 1 1 / 1 1 0 0 1 0 0 0 1 0 2 2 2 2 2 2 2 1 1 / / 1 1 1 0 0 0 0 0 0 3 3 2 2 2 2 2 2 1 / / 1 1 1 0 0 1 0 0 0 4 3 3 3 3 3 2 2 2 2 / 1 1 1 1 0 0 0 0 0 5 4 4 3 3 3 3 2 2 2 1 1 1 1 1 0 1 0 0 5 5 5 5 4 4 4 3 2 2 2 2 1 1 1 1 1 0 0 0 6 6 6 5 5 5 4 4 3 2 2 2 1 1 1 0 0 0 0 1 7 7 6 6 6 5 5 4 4 3 2 2 2 1 1 1 1 1 1 0 3 8 7 7 6 6 6 5 4 4 3 2 2 2 1 1 0 0 0 0 9 9 8 3 7 7 6 5 5 4 3 3 2 2 1 1 1 1 0 0 ю 9 9 8 8 7 6 6 5 4 3 3 2 2 г 1 1 0 1 0 ю 10 10 10 8 8 7 5 5 5 4 3 2 2 1 2 Г 1 0 1 // // ю 10 9 8 7 6 6 5 4 3 2 2 2 1 1 0 / 0 // 11 11 10 9 9 8 7 6 5 4 3 3 2 2 2 1 1 0 0 !2 11 11 10 10 9 8 7 6 5 5 4 3 2 2 2 2 1 1 1 Рис. 9.5.2. обычно удобнее построить цель в масштабе сетки. Так как стан- дартная сетка строится для кругового рассеивания, а на практике рассеивание в общем случае круговым не является, при построении цели в масштабе сетки приходится в общем случае пользоваться двумя разными масштабами по осям Ох и Оу. При этом способе удобно иметь в распоряжении сетку рассеивания, выполненную на прозрачной бумаге, и накладывать ее на перестроенное изображение цели. Прямолинейная сетка рассеивания для одного координатного угла дана на рис. 9.5.2. Сторона ячейки равна 0,2£« 0,133а.
204 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИН [ГЛ. 9 В ячейках проставлены вероятности попадания в них. выраженные в сороковых долях процента. 3. В случае, когда размеры области D невелики по сравнению со средними квадратическими отклонениями (не превышают 0,5—1 с. к. о. в направлении соответствующих осей), вероятность попадания в эту У область может быть приближенно вычислена по формуле, не содер- . ___D жащей операции интегрирования. Рассмотрим на плоскости хОу । малую цель D произвольной формы ^*—“**ч. • (рис. 9.5.3). Допустим, что размеры | этой цели невелики по сравнению ( jL_________A i х- с вероятными отклонениями Ех, Ег \70 у По общей формуле (8.3.3) имеем: -----' Р((Х, Y)aD) = Р» 9.5.3. =f (9.5.2) а>) где f(x, у)— плотность распределения системы (Ar, F)* Применим к интегралу (9.5.2) теорему о среднем значении: / Р((Х, Г)с£>)=/(х0, yQ) f f dxay=f (x0. yo)SD, (D) где (x0. y0)— некоторая точка внутри области D; SD — площадь области D. В случае, когда система (X, Y) подчинена нормальному закону в каноническом виде, имеем: 2 г *0___у0 Р((Х, K)cO)=i« ** V (9.5.3) £,*V*x'* у При сравнительно малых размерах области D плотность распре- деления f(x, у) в пределах этой области изменяется мало и практи- чески может быть принята постоянной. Тогда в качестве точки (х0. Уо) можно выбрать любую точку в пределах области D (например, при- близительный центр цели). Формулы типа (9.5.3) широко применяются на практике. Для областей, наибольшие размеры которых не превышают 0,5 среднего квадратического отклонения в соответствующем направлении, они дают вполне приемлемые по точности результаты. В отдельных слу- чаях их применяют и для более крупных областей (порядка одного с. к. о.). При условии внесения некоторых поправок (а именно, за- мены величин вх, Оу несколько увеличенными значениями) область применимости этой формулы может быть расширена на области раз- мером порядка двух с. к. о.
9.6] НОРМАЛЬНЫЙ ЗАКОН В ПРОСТРАНСТВЕ ТРЕХ ИЗМЕРЕНИЙ 205 9.6. Нормальный закон в пространстве трех измерений. Общая запись нормального закона для системы произвольного числа случайных величин При исследовании вопросов, связанных со стрельбой дистанцион- ными снарядами, приходится иметь дело с законом распределения точек разрыва дистанционного снаряда в пространстве. При условии применения обычных дистанционных взрывателей этот закон распре- деления может считаться нормальным. В данном п° мы рассмотрим лишь каноническую форму нормаль- ного закона в пространстве: 1 / ** . у* , \ .. ч 1 ~2 ’х '5 f(x, у, д) =-----г-------е \ х » г/, где <зх, ау. аг — главные средние квадратические отклонения. Переходя от средних квадратических отклонений к вероятным, имеем: (9.6.1) У» . р2 + р2 Еу Ег рЗ Г(х' <9-6-2’ При решении задач, связанных со стрельбой дистанционными снарядами, иногда приходится вычислять вероятность разрыва ди- станционного снаряда в пределах заданной области D. В общем случае эта вероятность выражается тройным интегралом: Р((Х, Y. Z)cO) = f f f f(x, у, z)dxdydz. (9.6.3) (D> Интеграл (9.6.3) обычно не выражается через элементарные функции. Однако существует ряд областей, вероятность попадания в которые вычисляется сравнительно просто. 1. Вероятность попадания в прямоугольный параллелепипед со сторонами, параллельными главнымосям рассеивания Пусть область R представляет собой прямоугольный параллелепи- пед, ограниченный абсциссами а, р, ординатами 7, 8 и аппликатами е, tj (рис. 9.6.1). Вероятность попадания в область R, очевидно, равна: Р((Х, Y. Z)<=/?) = (9.6.4)
206 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИН (ГЛ. 9 2. Вероятность попадания в эллипсоид равной плотности Рассмотрим эллипсоид равной плотности Вк, уравнение которого Полуоси этого эллипсоида пропорциональны, главным средним квадратическим отклонениям: a = Aax; й = йау; с = А«г Пользуясь формулой (9.6.1) для f(x, у, z), выразим вероятность г У Рис. 9.6.1. попадания в эллипсоид Вл 1 /х* .У* ._*л “ 2 | 2*”1* 2 **" 2 I Р((Х. Г. Z)=B,) = ^±— JJP ь ' Перейдем от декартовых координат к полярным (сферическим) заменой переменных — = г cos 0 cos Ф, «г -^-=rcos 6 sin Ф, ’у — = г sin 6. (9.6.5)
9.6] НОРМАЛЬНЫЙ ЗАКОН В ПРОСТРАНСТВЕ ТРЕХ ИЗМЕРЕНИЙ 207 Якобиан преобразования (9.6.5) равен: / — г2 cos Переходя к новым переменным, имеем: Р((Х Y, Z)cB„)=: к г2 cos Ог 2 dr df) dy = p/"— J* r2e 2 dr. о Интегрируя по частям, получим: P((X, Y, 3. Вероятность попадания в цилиндрическую область с образующей, параллельной одной из главных осей рассеивания Рассмотрим цилиндрическую область С, образующая которой параллельна одной из главных осей рассеивания (например, оси Oz). а направляющая есть контур произвольной области D на пло- скости хОу (рис. 9.6.2). Пусть область С ограничена двумя плоско- стями zssse и z = 7}. Вычислим вероятность попадания в область С; это есть вероятность произведения двух событий, первое из которых состоит в попадании точки (X, Y) в область О, а второе — в попадании величины Z на участок (s, т?). Так как величины (Xt У, Z), подчинен- ные нормальному закону в канони- ческой форме, независимы, то неза- висимы и эти два события. Поэтому Р((Х, У. Z)cC) = = Р ( (X. Y) <= о) Р (е < Z < 7J) = = Р ((Д'. У) с: о) ГФ* (1 - Ф* (-11. (9.6.7) Рис. 9.6.2. Вероятность Р((А\ Y)aD) в формуле (9.6.7) может быть вы- числена любым из способов вычисления вероятности попадания в плоскую область.
208 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИН [ГЛ. 9 На формуле (9.6.7) основан следующий способ вычисления ве- роятности попадания в пространственную область О произвольной формы: область О приближенно разбивается на ряд цилиндрических областей Ор О2* • • • (Рис- 9.6.3), и вероятность попадания в каждую из них вычисляется по формуле (9.6.7). Для применения этого спо- соба достаточно начертить ряд фигур, представляющих собой сечения области О плоскостями, параллельными одной из координатных плоскостей. Вероятность попадания в каждую из них вычисляется по сетке рассеивания. В заключение данной главы напишем общее выражение для нор- мального закона в пространстве любого числа измерений п. Плотность распределения такого закона имеет вид: . п п (9.6.8) f(xv хг, то К1££ п (2*) 2 где |С| — определитель матрицы С, С— ЦС^Ц — матрица, обратная корреляционной матрице К, т. е. если корреляционная матрица *=яад. С __( —(—1) утд. где |К|—определитель корреляционной матрицы, a — минор этого определителя, получаемый из него вычеркиванием l-й строки
9.6] НОРМАЛЬНЫЙ ЗАКОН В ПРОСТРАНСТВЕ ТРЕХ ИЗМЕРЕНИИ 209 и /-го столбца. Заметим, что lc! = W- Из общего выражения (9.6.8) вытекают все формы нормального закона для любого числа измерений и для любых видов зависимости между случайными величинами. В частности, при л= 2 (рассеивание на плоскости) корреляционная матрица есть где г — коэффициент корреляции. Отсюда 1 —г а2(1 — г2) —rs) С = v/1-r2) .2(1 -г*) ( Подставляя определитель матрицы |С| и ее члены в (9.6.8), полу- чим формулу (9.1.1) для нормального закона на плоскости, с которой мы начали п°9.1.
ГЛАВА 10 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН 10.1. Математическое ожидание функции. Дисперсия функции При решении различных задач, связанных со случайными явле- ниями, современная теория вероятностей широко пользуется аппара- том случайных величин. Для того чтобы пользоваться этим аппара- том, необходимо знать законы распределения фигурирующих в задаче случайных величин. Вообще говоря, эти законы могут быть опреде- лены из опыта, но обычно опыт, целью которого является определение закона распределения случайной величины или системы случайных величин (особенно в области военной техники), оказывается и слож- ным и дорогостоящим. Естественно возникает задача — свести объем эксперимента к минимуму и составлять суждение о законах распре- деления случайных величин косвенным образом, на основании уже известных законов распределения других случайных величин. Такие косвенные методы исследования случайных величин играют весьма большую роль в теории вероятностей. При этом обычно интересую- щая нас случайная величина представляется как функция дру- гих случайных величин; зная законы распределения аргумен- тов, часто удается установить закон распределения функции. С рядом задач такого типа мы встретимся в дальнейшем (см. главу 12). ^Однако на практике часто встречаются случаи, когда нет особой надобности полностью определять закон распределения функции слу- чайных величин, а достаточно только указать его числовые харак- теристики: математическое ожидание, дисперсию, инргда — некоторые из высших моментов. К тому же очень часто самые законы распре- деления аргументов бывают известны недостаточно хорошо. В связи с этим часто возникает задача об определении только числовых характеристик функций случайных величин. Рассмотрим такую задачу: случайная величина Y есть функция нескольких случайных величин Xv Х2. •••• ^л: Хг.....Хп).
10.1] МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ФУНКЦИИ ДИСПЕРСИЯ ФУНКЦИИ 211 Пусть нам известен закон распределения системы аргументов (Хр Хг, .... X„); требуется найти числовые характеристики вели- чины Y, в первую очередь — математическое ожидание и дисперсию. Представим себе, что нам удалось тем или иным способом найти закон распределения g(y) величины Y. Тогда задача об определении числовых характеристик становится тривиальной; они находятся по формулам: ОО /иу= f yg(y)dy, —оо оо f (y—my)2g(y)dy — ОО И Т. Д. Однако самая задача нахождения закона распределения g(y) ве- личины Y часто оказывается довольно сложной. К тому же для решения поставленной нами задачи нахождение закона распределения величины Y как такового вовсе и не нужно: чтобы найти только числовые характеристики величины Y, нет надобности знать ее закон распределения; достаточно знать закон распределения аргументов (Л’р ЛГ2, ..., Хп). Более того, в некоторых случаях, для того чтобы найти числовые характеристики функции, не требуется даже знать закона распределения ее аргументов; достаточно бывает знать лишь некоторые числовые характеристики аргументов. Таким образом, возникает задача определения числовых характе- ристик функций случайных величин помимо законов распре- деления этих функций. Рассмотрим задачу об определении числовых характеристик функ- ции при заданном законе распределения аргументов. Начнем с самого простого случая — функции одного аргумента — и поставим следую- щую задачу. Имеется случайная величина X с заданным законом распределе- ния; другая случайная величина Y связана *с X функциональной за- висимостью: у____ Требуется, не находя закона распределения величины Y» опреде- лить ее математическое ожидание: . /пу = М[Т(Х)]. (10.1.1) Рассмотрим сначала случай/ когда X есть прерывная случайная величина с рядом распределения: Х‘|л, ...|жя Pi а|л ...|л
212 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Выпишем возможные значения величины Y и вероятности этих значений: ?(*|) ?(•*,) • • • Ч(хп) - (10.1.2) Pl Р\ А • • • Рп Таблица (10.1.2) не является в строгом смысле слова рядом распре- деления величины Yt так как в общем случае некоторые из значений <р(х2)....Ф(Х„) (10.1.3) могут совпадать между. собой; к тому же эти значения в верхнем столбце таблицы (10.1.2) не обязательно идут в возрастающем порядке. Для того чтобы от таблицы (10.1.2) перейти к подлинному ряду распределения величины Y, нужно было бы расположить значения (10.1.3) в порядке возрастания, объединить столбцы, соответствую- щие равным между собой значениям F, и сложить соответствующие вероятности. Но в данном случае нас не интересует закон распре- деления величины Y как таковой; для наших целей — определения математического ожидания — достаточно такой «неупорядоченной» формы ряда распределения, как (10.1.2). Математическое ожидание величины Y можно определить по формуле (10.1.4) I Очевидно, величина ту — М[у(Х)], определяемая по формуле (10.1.4), не может измениться от того, что под знаком суммы некоторые члены будут объединены заранее, а порядок членов изменен. В формуле (10.1.4) для математического ожидания функции не содержится в явном виде закона распределения самой функции, а содержится только закон распределения аргумента. Таким образом, для определения математического ожидания функции вовсе не требуется знать закон распределения этой функции, а доста- точно знать закон распределения аргумента. Заменяя в формуле (10.1.4) сумму интегралом, а вероятность pt— элементом вероятности, получим аналогичную формулу для непрерыв- ной случайной величины: со Af [?(*)]= f<t(x)f(x)dx. (10.1.5) —оо где /(х)— плотность распределения величины X. Аналогично может быть определено математическое ожидание функции ср (X, Y) от двух случайных аргументов X и Y. Для пре- рывных величин «« л Л4 [Т (X, У)1 = 2 2 ? (Хр У/) Рц> (10-1 -6)
10.1] МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ФУНКЦИИ. ДИСПЕРСИЯ ФУНКЦИИ 213 где Pij = Р((Х = х4) (К = Ур) — вероятность того, что система (X, Y) примет значения (х{, у,). Для непрерывных величин СО M[<f(X, Y)] = f f <р(х, у)/(х, y)dxdy. (10.1.7) «-СО где /(х. у) — плотность распределения системы (X, Y). Совершенно аналогично определяется математическое ожидание функции от произвольного числа случайных аргументов. Приведем соответствующую формулу только для непрерывных величин: Ж (?(*!• *2......*л)1 = СО со = / ••• J*?(*:• х2......*я)/(*р *2.......xn)dxxdx2 ... dx„, -°0 (10.1.8) где f(*i> х2, .... хя)— плотность распределения системы (*р Х2......XJ. Формулы типа (10.1.8) весьма часто встречаются в практическом применении теории, вероятностей, когда речь идет об осреднении каких-либо величин, зависящих от ряда случайных аргументов. Таким образом, математическое ожидание функции любого числа случайных аргументов может быть найдено помимо закона распреде- ления функции. Аналогично могут быть найдены и другие числовые характеристики функции — моменты различных порядков. Так как каждый момент представляет собой математическое ожидание неко- торой функции исследуемой случайной величины, то вычисление любого момента может быть осуществлено приемами, совершенно аналогич- ными вышеизложенным. Здесь мы приведем расчетные формулы только для дисперсии, причем лишь для случая непрерывных случайных аргументов. Дисперсия функции одного случайного аргумента выражается формулой со D [? (X)] = f [<р (х) - mjf(x) dx. (10.1.9) —оо где = М [у (х)] — математическое ожидание функции <р (Л); /(х)— плотность распределения величины X. Аналогично выражается дисперсия функции двух аргументов: со О1<р(Х Г)]=/J[?(x, y)-mfJ2/(x, y)dxdy, (10.1.10)
214 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 где — математическое ожидание функции <р(Х, У); /(х, у);—плотность распределения системы (ЛГ, У). Наконец, в случае произвольного числа аргументов, в аналогичных обозначениях: Х2......*„)] = СО со = f... fl<e(xi’x2’>-~’xn) — mv]!2f(x1,x2......xn)dxtdxi...dx„. ~°° .(10.1.11) Заметим, что часто при вычислении дисперсии бывает удобно пользоваться соотношением между начальным и центральным момен- тами второго порядка (см. главу 5) и писать: DI? (*)] = Д (х)р / (х) dx - «2; (10.1.12) — ОО D[cp(X, У)] = J J[<р(х, у))2/(х. y)dxdy-m2; (10.1.13) Х2......Хп)}*= ОО оо = J ... J [<Р (Хр Х2.....х„)12/(*р х2......xn)dxxdx2.. .(fx„—«2 -°0 (10.1.14) Формулы (10.1.12) — (10.1.14) можно рекомендовать тогда, когда 4 они не приводят к разностям близких чисел, | т. е. когда сравнительно невелико. Рассмотрим несколько примеров, иллюстри- I рующих применение изложенных выше методов _______________для решения практических задач. / Пример 1. На плоскости задан отрезок дли- f । ны Z (рис. 10.1.1), вращающийся случайным образом s' I так, что все направления его одинаково вероятны. -----' I Отрезок проектируется на неподвижную ось ЛВ. 1 Определить среднее значение длины проекции от- { резка. ! Решение. Длина проекции равна: в Г—Z|cosa|, Рис. 10.1.1* w «— случайная величина, распределенная с равномерной плотностью на участке 0,2л. По формуле (10.1.5) имеем: к 2к 2 m = Al[Z|cosa |]ш § /| cose f cos a da = w 0,637/. О б
ЮЛ] МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ФУНКЦИИ ДИСПЕРСИЯ ФУНКЦИИ 215 Пример 2. Удлиненный осколок снаряда, который можно схемати- чески изобразить отрезком длины I, летит, вращаясь вокруг центра массы таким образом, что все его ориентации в пространстве одинаково вероятны. На своем пути осколок встречает плоский экран, перпендикулярный к напра- влению его движения, и оставляет в нем пробоину. Найти математиче- ское ожидание длины этой пробоины. Решение. Прежде всего дадим математическую формулировку утвер- ждения, заключающегося в том, что «все ориентации осколка в простран- стве одинаково вероятны». Направле- ние отрезка I бужм характеризовать единичным вектором г (рис. 10.1.2). Направление вектора г в сферической системе координат, связанной с плос- костью Р, на которую производится проектирование, определяется двумя углами: углом 0, лежащим в плоскости Р, и углом <?, лежащим в плоскости, перпендикулярной к Р. При равной вероятности всех направлений вектора г все положения его конца на поверх- ности сферы единичного радиуса С должны обладать одинаковой плотностью вероятности; следовательно, элемент вероятности /(О, т)40 4<р, где f (0, <?) — плотность распределения углов 0, у, должен быть пропорциона- лен элементарной площадке ds на сфере С; эта элементарная площадка равна ds = 40 4<р cos <р, откуда / (0, <р) 40 4? = A cos у 40 4<р; / (0, <?) = A cos где А коэффициент пропорциональности. Значение коэффициента А найдем из соотношения я 2к 2 J о * “2 откуда Таким образом, плотность распределения углов 0, <? выражается формулой /(в. ?)= 4^cos<? при О < 0 < 2я, Я я (10.1.15) Спроектируем отрезок на плоскость Р; длина проекции равна: Y ® I cos ?.
216 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Рассматривая Y как функцию двух аргументов 0 и ? и применяя фор- мулу (10.1.7), получим: к к 2к 2 2 ту = М [Z cos <р] ® j* d9 j* cos2 =-g- j* cos2 ? =«-—-» 0,785/. 6-1 1 ~ 2 “2 Таким образом, средняя длина пробоины, оставляемой осколком в экране, равна 0,785 длины осколка. Пример 3. Плоская фигура площади S беспорядочно вращается в про* странстве так, что все ориентации этой фигуры одинаково вероятны. Найти среднюю площадь проекции фигуры S на неподвижную плоскость Р (рис. 10.1.3). Решение. Направление плоскости фигуры S в пространстве будем характеризовать направлением нормали /V к этой плоскости. С плоскостью Р свяжем ту же сферическую систему координат, что в предыдущем примере. Направление нормали N к площадке S характеризуется случайными углами О и ф, распределенными с плотностью (10.1.5). Пло- щадь Z проекции фигуры S на плоскость Р равна Z = S I cos(-^ — =S| sin vl» а средняя площадь проекции mz = M [S | sin f [] « 2* 2 5 /* /* 5 = 4^-J J cos ?| sin ?]</?=-£-. 0 « *2 Таким образом, средняя площадь проекции произвольно ориентированной плоской фигуры на неподвижную плоскость равна половине площади этой фигуры. Пример 4. В процессе слежения радиолокатором за определенным объектом пятно, изображающее объект, все время удерживается в пределах экрана. Экран представляет собой круг К радиуса /?. Пятно занимает на экране случайное положение с постоянной плотностью вероятности. Найти среднее расстояние от пятна до центра экрана. _ Решение. Обозначая расстояние D, имеем DY X2 -|- Y* » где X, Y—координаты пятна; /(л, у)» в пределах круга К и равна нулю за его пределами. Применяя формулу (10.1.7) и переходя в интеграле к по* лярным координатам, имеем: ff - таг/7«• (А) о о Пример 5. Надежность (вероятность безотказной работы) техниче* ского устройства есть определенная функция р (X, Y, Z) трех параметров, характеризующих работу регулятора. Параметры л, Y, Z представляют собой случайные величины с известной плотностью распределения / (л, у, л).
ЮЛ] МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ФУНКЦИИ ДИСПЕРСИЯ ФУНКЦИИ 217 Найти среднее значение (математическое ожидание) надежности устройства и среднее квадратическое отклонение, характеризующее ее устойчивость. Решение. Надежность устройства р(Х> К, Z) есть функция трех слу- чайных величин (параметров) X, У, Z, Ее среднее значение (математическое ожидание) найдется по формуле (10.1.8): оо mp = M[p(X,Y,Z)]^ f f' J p(x,y,z)/(x,y,z)dxdydz.(lOAAQ) —oo По формуле (10.1.14) имеем: Dp= D[p (X, Г, Z)J = f f f [p (x, y, z)]2 / (x, y, z) dx dy dz — Wp, —co Формула (10.1.16), выражающая среднюю (полную) вероятность безотказной работы устройства с учетом случайных величин, от ко- торых зависит эта вероятность в каждом конкретном случае, пред- ставляет собой частный случай так называемой интегральной фор- мулы полной вероятности, обобщающей обычную формулу полной вероятности на случай бесконечного (несчетного) числа гипотез. Выведем здесь эту формулу в общем виде. Предположим, что опыт, в котором может появиться или не по- явиться интересующее нас событие Д, протекает в случайных, за- ранее неизвестных условиях. Пусть эти условия характеризуются непрерывными случайными величинами Xv Х2........Хп. (10.1.17) плотность распределения которых /(*р хч......х„). Вероятность РА появления события А есть некоторая функция случайных величин (10.1.17): РА^1. *2........Х„). (10.1.18) Нам нужно найти среднее значение этой вероятности или, другими словами, полную вероятность события Д: Pa = M[Pa(Xv х2.........Хп)]. Применяя формулу (10.1.8) для математического ожидания функ- ции, найдем: РА= оо ~ J" j* ‘ ‘ ’ j* РА^1’ х.2' • ••• f ^2’ •••• x^)dx2dx2 ... dx„. (10.1.19)
218 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Формула (10.1.19) называется интегральной формулой полной вероятности. Нетрудно заметить, что по своей структуре она сходна с формулой полной вероятности, если заменить дискретный ряд ги- потез непрерывной гаммой, сумму — интегралом, вероятность гипо- тезы — элементом вероятности: /(*1> х2, .... xn)dxxdx2 ... dxn, а условную вероятность^ события при данной гипотезе — условной вероятностью события при фиксированных значениях случайных ве- личин: Рд(Х1> Х2....*»)• Не менее часто, чем интегральной формулой полной вероятности, пользуются интегральной формулой полного математического ожидания. Эта формула выражает среднее (полное) математическое ожидание случайной величины Z, значение которой принимается в опыте, условия которого заранее неизвестны (случайны). Если эти условия характеризуются непрерывными случайными величинами *2..... с плотностью распределения /(*Р Х2.....*л). а математическое ожидание величины Z есть функция от величин Xv Хг..... Х2.....Хя). то полное математическое ожидание величины Z вычисляется по формуле т2 = СО = //•••/ т*(Х1‘ *2’ —оо *«)/(*!. *2.....xjdx^ ... dxn. (10.1.20) которая называется интегральной формулой полного матема- тического ожидания. Пример 6. Математическое ожидание расстояния D, на котором будет обнаружен объект с помощью четырех радиолокационных станций, зависит от некоторых технических параметров этих станций: Х2, Х3, Х4, которые представляют собой независимые случайные величины с плотностью распределения / (Хь X* Х3, х<) « Л (Xi) /2 (х2) /з (х8) л (Х4). При фиксированных значениях параметров Xt »xt, Х2 = х2, л а, = х4 математическое ожидание дальности обнаружения равно mD (Xi, л2, л3, х4).
ЮД| ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 219 Найти среднее (полное) математическое ожидание дальности обнару- жения. Решение. По формуле (10.1.20) имеем: со -/ J f f mD(XV XV ХУ x4>fl(.x^fz(.x2ifz^f^x^dxidxidx3dx^ — CO 10.2. Теоремы о числовых характеристиках В предыдущем п° мы привели ряд формул, позволяющих нахо- дить числовые характеристики функций, когда известны законы рас- пределения аргументов. Однако во многих случаях для нахождения числовых характеристик функций не требуется знать даже законов распределения аргументов, а достаточно знать только некоторые их числовые характеристики; при этом мы вообще обходимся без ка- ких бы то ни было законов распределения. Определение числовых характеристик функций по заданным числовым характеристикам ар- гументов широко применяется в теории вероятностей и позволяет значительно упрощать решение ряда задач. По преимуществу такие упрощенные методы относятся к линейным функциям; однако неко- торые элементарные нелинейные функции также допускают подобный подход. В настоящем п° мы изложим ряд теорем о числовых, характери- стиках функций, представляющих в своей совокупности весьма про- стой аппарат вычисления этих характеристик, применимый в широком круге условий. 1. Математическое ожидание неслучайной величины Если с — неслучайная величина, то М [с] = с. Сформулированное свойство является достаточно очевидным; дока- зать его можно, рассматривая неслучайную величину с как частный вид случайной, при одном возможном значении с вероятностью еди- ница; тогда по общей формуле для математического ожидания: М [с] = с • 1 = с. 2. Дисперсия неслучайной величины Если с — неслучайная величина, то D[d = 0. Доказательство. По определению дисперсии D [с] = М [c2J = М [(с — тс)2\ = тИ [(с — c)2J = М [0] = 0.
220 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 3. Вынесение неслучайной величины за знак математического ожидания Если с — неслучайная величина, а X — случайная, то М[сХ] = сМ[Х]9 (10.2.1) т. е. неслучайную величину можно выносить за знак мате* литического ожидания. Доказательство. а) Для прерывных величин М [сХ\ = 2 cxiPi = с 2 *iPi = сМ [X]. б) Для непрерывных величин М[сХ1 = J cxf(x)dx — c J xf(x)dx — cM\X\. 4. Вынесение неслучайной величины за знак дисперсии и среднего квадратического отклонения Если с — неслучайная величина, а X— случайная, то ОкХ] = с2Я[АГ], (10.2.2) т. е. неслучайную величину можно выносить за знак диспер- сии, возводя ее в квадрат. Доказательство. По определению дисперсии D 1сАГ] = М [{сХ — М [сХ] ft = = М [(сХ — стх)2] = с2М [(АГ — тх)2\ = c2D [Х\. Следствие а[сАг]==|с|а[Аг1, т. е. неслучайную величину можно выносить за знак среднего квад- ратического отклонения ее абсолютным значением. Доказательство получим, извлекая корень квадратный из формулы (10.2.2) и учиты- вая, что с.к.о. — существенно положительная* величина.
10.2! ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 221 5. Математическое ожидание суммы случайных величин Докажем, что для любых двух случайных величин X и Y M[X + Y\ = M [X] + М [Г], (10.2.3) т. е. математическое ожидание суммы двух случайных величин равно сумме их математических ожиданий. Это свойство известно под названием теоремы сложения мате- матических ожиданий. Доказательство. а) Пусть (Xt Y) — система прерывных случайных величин. При- меним к сумме случайных величин общую формулу (10.1.6) для ма- тематического ожидания функции двух аргументов: м Iх+И=2 2 +у,) Pii = < i ~^^х1Рц~\~'^'^У)Рц — “2 xi 2 2 У/ 2 Pif Но 2р</ представляет собой не что иное, как полную вероят- i ность того, что величина X примет значение xt‘. ^Pij~p<Xsssxi) — Pii следовательно, 2 xi 2 Рц — 2 xiPi — М [X]. Аналогично докажем, что 2У/2А/вЛНГ]. и теорема доказана. б) Пусть (X, У)— система непрерывных случайных величин. По формуле (10.1.7) лцх-|-Г]в J J(*+у)/(*. y)rf*rfy= —00 = ff х/(х> y)rfjfrfy + У Уу/(х. y)dxdy. (10.2.4) -CO -00
222 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ, 10 Преобразуем первый из интегралов (10.2.4): 00 оо | оо J J xf(.x, y)dxdy = J f f(x, y)dy — OO *QO [ —00 dx — аналогично = J x/jGOdxsaAfpn; —00 oo J J yf(x, y)dxdy = M [K], —00 и теорема доказана. Следует специально отметить, что теорема сложения математи- ческих ожиданий справедлива для любых случайных вели- чин— как зависимых, так и независимых. Теорема сложения математических ожиданий обобщается на про- извольное число слагаемых: л[Д^1-Дж[Хл (10.2.5) т. е. математическое ожидание суммы нескольких случайных величин равно сумме их математических ожиданий. Для доказательства достаточно применить метод полной ин* дукции. 6. Математическое ожидание линейной функции Рассмотрим линейную функцию нескольких случайных аргументов Ху Хг......Хл: где alt Ъ — неслучайные коэффициенты. Докажем, что A! J Д = Д aiM + b> (Ю.2.6) т. е. математическое ожидание линейной функции равно той же линейной функции от математических ожиданий аргументов.
10JJ ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 223 Доказательство. Пользуясь теоремой сложения м. о. и пра- вилом вынесения неслучайной величины за знак м. о., получим: п п ==£ М + Ъ =2 а(М [ХД + Ь. Z=1 7. Дисперсия суммы случайных величин Дисперсия суммы двух случайных величин равна сумме их диспер- сий плюс удвоенный корреляционный момент: D[X+Y]=D [X] 4-D [ГЦ- 2Кху. (10.2.7) Доказательство. Обозначим Z — X-\-Y. (10,2.8) По теореме сложения математических ожиданий тг = тх-{-ту. (10.2.9) Перейдем от случайных величин Xt Yt Z к соответствующим центрированным величинам Xt F, Z. Вычитая почленно из равенства (10.2.8) равенство (10.2.9), имеем: ООО Z = A’4-r. По определению дисперсии D [Х+ Г] — D [Z] = М [Z2l == = МIX2] + 2М [ХУ\ 4- М [У2] = D [Д'] 4- + D (И. что и требовалось доказать. - Формула (10.2.7) для дисперсии суммы может быть обобщена на любое число слагаемых: D [Ji *']=ДD 1*я+2 & к* °0-2-io) где Kif—корреляционный момент величин Xt, Xf, знак /< / под. суммой обозначает, что суммирование распространяется на все воз- можные попарные сочетания случайных величин (Л\. Л*2. .... Хп).
224 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Доказательство аналогично предыдущему и вытекает из формулы для квадрата многочлена. Формула (10.2.10) может быть записана еще в другом виде: [п 1 п п 2^=2 2^у. (ю.2.11) /=1 J /.1 где двойная сумма распространяется на все элементы корреляцион- ной матрицы системы величин (А^, Х2......Хп), содержащей как корреляционные моменты, так и дисперсии. Если все случайные величины (А\, Х2, ..., Хп), входящие в си- стему, некоррелированы (т. е. /С^ = 0 при формула (10.2.10) принимает вид: о ИЛ. (10.2.12) 1./ = 1 J i=l т.е. дисперсия суммы некоррелированных случайных величин равна сумме дисперсий слагаемых. Это положение известно под названием теоремы сложения дисперсий. 8. Дисперсия линейной функции Рассмотрим линейную функцию нескольких случайных величин. z=i где Ь — неслучайные величины. Докажем, что дисперсия этой линейной функции выражается формулой D | a?D[Xz]-|-2^ ар}Кц, (10.2.13) где Кц — корреляционный момент величин Xlt Xj. Доказательство. Введем обозначение: Тогда 2 а.Х, + Ь= S + (10.2.14) Z-1 4 = 1 Применяя к правой части выражения (10.2.14) формулу (10.2.10) для дисперсии суммы и учитывая, что D [#] = 0, получим: d[% Л = 2 D [Г<1 + 2 2 К?] = 2 [*,]+ 2 2 А?/. U«i J *=i Ki ki KJ (10.2.16)
.10.2] ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 225 где К®]— корреляционный момент величин Yf. Вычислим этот момент. Имеем: Yi = Yi —тУ1= aiXi— aimXi = (иХг, аналогично 6=*A Отсюда = М = а^М [XiXj] = WiKi,. Подставляя это выражение в (10.2.15), приходим к формуле (10.2.13). В частном случае, когда все величины (Л\, Х2, ...» Хл) некор- релированны, формула (10.2.13) принимает вид: D S «Л + Л = S (falXt}, (10.2.16) L i = 1 J i = 1 т. e. дисперсия линейной функции некоррелированных случай- ных величин равна сумме произведений квадратов коэффициен- тов на дисперсии соответствующих аргументов1). 9. Математическое ожидание произведения случайных величин Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс корреляцион- ный момент: Л4[ХГ] = Л1[Х] М[Г] + ^у. (10.2.17) Доказательство. Будем исходить из определения корреля- ционного момента: Кху = М [XY] = М [(X — тх) (Y — ту)]9 где тх^М[Х]> ту = М[У]. Преобразуем это выражение, пользуясь свойствами математиче- ского ожидания: Кху = М[(Х — тх) (Y — ту)] = = М [XY] — тхМ [Г] — туМ [X] + тхту = Ж [XY] — М[Х]М [Г], что, очевидно, равносильно формуле (10.2.17). ’) Так как независимые величины всегда являются некоррелированными, то все свойства, доказываемые в данном п° для некоррелированных величин, справедливы для'независимых величин. 15-3015
226 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Если случайные величины (АГ, Y) некоррелированны (Л\у = 0), то формула (10.2.17) принимает вид: М [АТ] = Л4 [АГ] Л4 [У], (10.2.18) т. е. математическое ожидание произведения двух некор рели- рованных случайных величин равно произведению их матема- тических ожиданий. _ Это положение известно под названием теоремы умножения математических ожиданий. Формула (10.2.17) представляет собой не что иное, как выраже- ние второго смешанного центрального момента системы через второй смешанный начальный момент и математические ожидания: Кху = Н1=аЦ — тхтГ (10.2.19) Это выражение часто применяется на практике при вычислении корреляционного момента аналогично тому, как для одной случайной величины дисперсия часто вычисляется через второй начальный мо- мент и математическое ожидание. Теорема умножения математических ожиданий обобщается и на произвольное число сомножителей, только в этом случае для ее при- менения недостаточно того, чтобы величины были некоррелированны, а требуется, чтобы обращались в нуль и некоторые высшие смешан- ные моменты, число которых зависит от числа членов в произведении. Эти условия заведомо выполнены при независимости случайных вели- чин, входящих в произведение. В этом случае и =Плад. (10.2.20) т. е. математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий. Это положение легко доказывается методом полной индукции. 10. Дисперсия произведения независимых случайных величин- Докажем, что для независимых величин X, Y D [XY] = D [Д'] D [У] + m\D [Г] 4- m2D [X]. (10.2.21) Доказательство. Обозначим XY = Z. По определению дисперсии D [XY] = D [Z] = М[Z2] = М [(Z — mJ2].
10.2) ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 227 Так как величины X, У независимы, = и DI ХУ] = М [(ХУ — тхт^\ = М [Д'2/2] — 2mxmyM [ХУ] -|- /п2т2. При независимых X, У величины X2, У2 тоже независимыг); следовательно, М [Х2У2] = М [X2] М{У21, М [XК] = тхт? и D [ХУ\ = М [X2] М [У2] — m2m2. (10.2.22) Но М [X2] есть не что иное, как второй начальный момент вели- чины X, и, следовательно, выражается через дисперсию: Л11Х21 = £>Ь¥1-Н/п2; аналогично М [У2] = Р[У] + т2. Подставляя эти выражения в формулу (10.2.22) и приводя подоб- ные члены, приходим к формуле (10.2.21). В случае, когда перемножаются центрированные случайные вели- чины (величины с математическими ожиданиями, равными нулю), фор- мула (10.2.21) принимает вид: D [ХУ\ = D [Л] D [У], (10.2.23) т. е. дисперсия произведения независимых центрированных случайных величин равна произведению их дисперсий. 11. Высшие моменты суммы случайных величин В некоторых случаях приходится вычислять высшие моменты суммы независимых случайных величин. Докажем некоторые относя- щиеся сюда соотношения. 1) Если величины X, У независимы, то = (10.2.24) Доказательство. Рз I* + И = М [(X + У - тх - zny)3] = = М[{(Х- тх) + (К - ту)} з] = — М[(Х — тЛ)3] -J- ЗМ [(X - тх? (Г - ту)] + 4- ЗМ [(X - тх) (У - my)2] + М [(У - т^], ’) Можно доказать, что любые функции от независимых случайных величин также независимы.
228 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. to откуда по теореме умножения математических ожиданий Из 1*4- П=Из [*] 4- Зр2 I*] н [П 4-3(41Л Р2 1*1 4- Из tn. Но первый центральный момент для любой величины равен нулю; два средних члена обращаются в нуль, и формула (10.2.24) доказана. Соотношение (10.2.24) методом индукции легко обобщается на произвольное число независимых слагаемых: л 1*3 2 Ь=1 — 2 Нз Z=1 (10.2.25) 2) Четвертый центральный момент суммы двух независимых слу- чайных величин выражается формулой Р4 [X + Y] = р4 [X] + |i4 [И + QDxDyt (10.2.26) где Dx, Dy — дисперсии величин X и Y. Доказательство совершенно аналогично предыдущему. Методом полной индукции легко доказать обобщение формулы (10.2.26) на произвольное число независимых слагаемых: [л 1 л 2 = 2 i*d4-6 2 dxd (10.2.27) /=1 J /=1 /</ 1 J Аналогичные соотношения в случае необходимости легко вывести и для моментов более высоких порядков. 12. Сложение некоррелированных случайных векторов Рассмотрим на плоскости хОу два некоррелированных случайных вектора: вектор с составляю- щими (Л’р Ki) и вектор V2 с соста- вляющими (Х2, К2) (рис. 10.2.1). Рассмотрим их векторную сумму: т. е. вектор с составляющими: . Х^Х. + Х^ Y^Y. + Y,. Требуется определить число- вые характеристики случайного ->• вектора V — математические ожидания тх, myt дисперсии и корреля- ционный момент составляющих: Dx, Dyt Kxr
10.2] ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 229 По теореме сложения математических ожиданий: my = my, + mya. По теореме сложения дисперсий = D +D-, Л Xi ' дга D —D 4-D . У У1 ‘ Уз Докажем, что корреляционные моменты также складываются: = + (10-2:28) где К , КХзУ2 — корреляционные моменты составляющих каждого из векторов Vx и V2. Доказательство. По определению корреляционного момента: кху = М [XY] = М [(Х1 + Д) (г;+Р2)] = = М [ДFJ + М [ХД] Н- М [ДУ2] + М [X2Y2]. (10.2.29) Так как векторы Vv V2 некоррелированны, то два средних члена в формуле (10.2.29) равны нулю; два оставшихся члена представляют собой и Кх*у\ формула (10.2.28) доказана. Формулу (10.2.28) иногда называют «теоремой сложения корре- ляционных моментов». Теорема легко обобщается на произвольное число слагаемых. Если имеется две некоррелированные системы случайных величин, т. е. два n-мерных случайных вектора: X с составляющими Xv Х2, ..., Хп. Y с составляющими К2, Vn, то их векторная сумма Z=X+Y имеет корреляционную матрицу, элементы которой получаются сум- мированием элементов корреляционных матриц слагаемых: К$ = К$ + К^, (10.2.30) где Xij обозначают соответственно корреляционные мо- менты величин (Zf, Zy); (Хл, Xj)t (Yit Yj). Формула (10.2.30) справедлива как при l = J> так и при /=#/. Действительно, составляющие вектора Z равны: Z^Xx + YV, Z2 = X2+Y£ Za = Xn-^Ya.
230 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 По теореме сложения дисперсий DZi = Dx^Dye или в других обозначениях По теореме сложения корреляционных моментов при Z #= j A1 / = A i j -j- A ij . В математике суммой двух матриц называется матрица, элементы которой цолучены сложением соответствующих элементов этих мат- риц. Пользуясь этой терминологией, можно сказать, что корреля- ционная матрица суммы двух некоррелированных случайных векторов равна сумме корреляционных матриц слагаемых'. 11^11 = И$Н + И*Ж (10.2.31) Это правило по аналогии с предыдущими можно назвать «теоре- мой сложения корреляционных матриц». 10.3. Применения теорем о числовых характеристиках . В данном п° мы продемонстрируем применение аппарата числовых характеристик к решению ряда задач. Некоторые из этих задач имеют самостоятельное теоретическое значение и найдут применение в дальнейшем. Другие задачи носят характер примеров и приводятся для иллюстрации выведенных общих формул на конкретном цифровом материале. Задача 1. Коэффициент корреляции линейно, за- висимых случайных величин. Доказать, что если случайные величины X и Y связаны линейной функциональной зависимостью Y = aX + bt то их коэффициент корреляции равен +1 или — 1, смотря по знаку коэффициента а. Решение. Имеем: Кху = М [XY] = М[(Х — тх) (Y _ /пу)] = = М[(Х — тх) (аХ + Ь — атх — £)] = аМ [{X — тх?\ = aDx, где Dx — дисперсия величины X. Для коэффициента корреляции имеем выражение:
ЮЗ) ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 231 Для определения ау найдем дисперсию величины К: Dy = D[aX-f-^ = a2D^ °у = |а|вж Подставляя в формулу (10.3.1), имеем: ______ аРк ____ а Г^~Т^х~\а\ Величина равна +1, когда а положительно, и — 1, когда а от- рицательно, что и требовалось доказать. Задача 2. Границы коэффициента корреляции. Доказать, что для любых слу- чайных величин 1гжу1'С^в Решение. Рассмотрим слу- чайную величину: 2 = ауХ±ажГ, где ол, — средние квадратиче- ские отклонения величин X, У. Определим дисперсию величины Z. По формуле (10.2.13) имеем: Pz = или Dz = 2a^3y ± 2axay/Cxy. Так как дисперсия любой случайной величины не может быть отрицательна, то 2<£ву ± 2<злсуКХу 0» или Gxav ± > 0» откуда а следовательно, I гху I 1» что и требовалось доказать. \ Задача 3. Проектирование случайной точки на плоскости на произвольную прямую. Дана случайная точка на плоскости с координатами (X, У) (рис. 10.3.1). Спроектируем эту точку на ось Oz, проведенную через начало координат под углом а к оси Ох. Проекция точки (X, У) на ось Oz также есть случайная точка; ее расстояние Z от начала координат есть случайная величина. Требуется найти математическое ожидание и дисперсию величины Z.
232 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Решение. Имеем: .Z = X cos а + Y sin а. Так как Z есть линейная функция аргументов X и F, то тг = тх cos а + sin а; Dz = Dx cos2 а + Dy sin2 a -j- 2Kxy sin a cos а = = Dx cos2 а + Dy sin2 а + KXy s,n 2а» где Dx,43y, КЖу—дисперсии и корреляционный момент величин (X, Y). Переходя к средним квадратическим отклонениям» получим: а2 = а2 cos2 a-j-a2 sin2 а+ ^<1^ sin 2а.’ (10.3.2) В случае некоррелированных случайных величин (при гжу = 0) a2 =<з2 cos2 а + a2 sin2 а. (10.3.3) Задача 4. Математическое ожидание числа по- явлений события при нескольких опытах. Производится п опытов» в каждом из которых может появиться или не появиться событие Л. Вероятность появления события А р Z-м опыте равна pz. Найти математическое ожидание числа появле- ний события. Решение. Рассмотрим прерывную случайную величину X — число появлений события во всей серии опытов. Очевидно, х=х1+^2+•••+^я. где Хг—число появлений события в первом опыте, X2-*—число появлений события во втором опыте, Хп — число появлений события в n-м опыте, или, короче, /=1 где Xi — число появлений события в Z-м опыте1). Каждая из величин есть прерывная случайная величина с двумя возможными значениями: 0 и 1. Ряд распределения величины Xt имеет вид: 0 1 ----------, (10.3.4) 4i Pi где ?/ = 1 — pi — вероятность непоявления события А в Z-м опыте. ‘) Иначе — характеристическая случайная величина события А в l-м опыте.
10.3] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 233 По теореме сложения математических ожиданий тг = М [Х\ — 2 ntr, i=l I (10.3.5) где т, —математическое ожидание величины Х>. xi Вычислим математическое ожидание величины Xt. По определе- нию математического ожидания Подставляя это выражение в формулу (10.3.5), имеем Х=1 (10.3.6) т. е. математическое ожидание числа появлений события при нескольких опытах равно сумме вероятностей события в от- дельных опытах. В частности, когда условия опытов одинаковы и Р1==Р2= ••• = Рп=Р> формула (10.3.5) принимает вид тх =пр. (10.3.7) Так как теорема сложения математических ожиданий применима к любым случайным величинам—как зависимым, так и независимым, формулы (10.3.6) и (10.3.7) применимы к любым опытам—зависи- мым и независимым. Выведенная теорема часто применяется в теории стрельбы, когда требуется найти среднее число попаданий при нескольких выстре- лах— зависимых или независимых. Математическое ожидание числа попаданий при нескольких выстрелах равно сумме ве- роятностей попадания при отдельных выстрелах. Задача 5. Дисперсия числа появлений события при нескольких независимых опытах. Производится п независимых опытов, в каждом из которых мо- жет появиться событие А, причем вероятность появления события А в Z-м опыте равна pz. Найти дисперсию и среднее квадратическое отклонение числа появлений события А. Решение. Рассмотрим случайную величину X — число появле- ний события А. Так же как в предыдущей задаче, представим вели- чину X в виде суммы: п х = 2 Х{, /=1 где Xi — число появлений события в Z-м опыте.
234 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. го В силу независимости опытов случайные величины Xv Х2..Ха независимы и к ним применима теорема сложения дисперсий: dx=Sdx. Найдем дисперсию случайной величины Xt. Из ряда распределе- ния (10.3.4) имеем: \ в (° - p# +0 — р>Т Pi=Pfa’ откуда Dx=^ptqi, (10.3.8) Z=1 т. e. дисперсия числа появлений события при нескольких независимых опытах равна сумме вероятностей появления и непоявления события в каждом опыте. Из формулы (10.3.8) находим среднее квадратическое отклонение числа появлений события А: <’х = ’|/<2рл- (ю.з.э) При неизменных условиях опытов, когда рх = р2 = ... = рп = Р» формулы (10.3.8) и (10.3.9) упрощаются и принимают вид: <Ъ = V npq. ) Задача 6. Дисперсия числа появлений события при зависимых опытах. Производится п зависимых опытов, в каждом из которых может появиться событие А, причем вероятность события А в /-м опыте равна p/(Z = l> 2....п). Определить дисперсию числа появлений события. Решение. Для того чтобы решить задачу, снова представим число появлений события X в виде суммы: (10.3.11) 1 = 1 где {1, если в Z-м опыте событие А появилось, О’, если в Z-м опыте событие А не появилось. Так как опыты зависимы, то нам недостаточно задать вероятности Pv Р2.....Рп
10.31 ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 235 того, что событие А произойдет в первом, втором, третьем и т. д. опытах. Нужно еще задать характеристики зависимости опытов. Оказывается, для решения нашей задачи достаточно задать вероят- ности Рд совместного появления события А как в Z-м, так и в у-м опыте: P((Xi = \)(Xj=l) =Рд. Предположим, что эти вероят- ности заданы. Применим к выражению (10.3.11) теорему о дисперсии суммы (формулу (10.2.10)): п (10.3.12) /=1 1 l<j где Кц — корреляционный момент величин Xlt Xf. По формуле (10.2.19) Ktj = М [Х.ХД—т^т^'М (10.3.13) Рассмотрим случайную величину XtXj. Очевидно она равна нулю, если хотя бы одна из величин Xlt Xj равна нулю, т. е. хотя бы в одном из опытов (Z-м или /-м) событие А не появилось. Для того чтобы величина XtXj была равна единице, требуется, чтобы в обоих опытах (Z-м и /-м) событие А появилось. Вероятность этого равна Рд. Следовательно, и Ку — Рц—PiP}. Подставляя это выражение в формулу (10.3.12), получим: + 2 (10.3.14) Формула (10.3.14) и выражает дисперсию числа появлений собы- тия при зависимых опытах* Проанализируем структуру этой формулы. Первый член в правой части формулы представляет собой дисперсию числа появлений события при независимых опытах, а второй дает «поправку на зависимость». Если вероятность Рд равна Pipy то эта поправка равна нулю. Если вероятность Рд больше, чем Pip], это значит, что условная вероятность появления события А в /-м опыте при условии, что в Z-м опыте оно появилось, больше, чем простая (безусловная) вероятность появления события в /-м опыте pj (между появлениями события в Z-м и у-м опытах имеется положительная кор- реляция). Если это так для любой пары опытов, то поправочный член в формуле (10.3.14) положителен и дисперсия числа появлений события при зависимых опытах больше, чем при независимых.
236 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Если вероятность Ри меньше, чем ptpj (между появлениями события в Z-м и /-м опытах существует отрицательная корреляция), то соответствующее слагаемое отрицательно. Если это так для любой пары опытов, то дисперсия числа появлений события при зависимых опытах Меньше, чем при независимых. Рассмотрим частный случай, когда рх = р2 = ... = рп = р, РП = Р12= ... =Р, т. е. условия всех опытов одинаковы. Фор- мула (10.3.14) принимает вид: = + 2 2 (Р — p*) — npq + n(n—1)(Р—р2), (10.3.15) Kj где Р — вероятность появления события А сразу в паре опытов (все равно каких). В этом частном случае особый интерес представляют два подслучая: 1. Появление события А в любом из опытов влечет за собой с достоверностью его появление в каждом из остальных. Тогда Р = р, и формула (10.3.15) принимает вид: Dx = npq + п (п — 1) (р — р2) — npq+ п(п — l)pq = n2pq. 2. Появление события А в любом из опытов исключает его появление в каждом из остальных. Тогда Р = 0, и формула (10.3.15) принимает вид: Dx — npq — п(п— \)р2 — пр [q — (п — \)р\ — пр(\ —пр). Задача 7. Математическое ожидание числа объек- тов, приведенных в заданное состояние. На практике часто встречается следующая задача. Имеется не- которая группа, состоящая из п объектов, по которым осуществляется какое-то воздействие. Каждый из объектов в результате воздействия может быть приведен в определенное состояние S (например, поражен, исправлен, обнаружен, обезврежен и т. п.). Вероятность того, что /-й объект будет приведен в состояние S, равна pt. Найти матема- тическое ожидание числа объектов, которые в результате воздействия по группе будут приведены в состояние S. Решение. Свяжем с каждым из объектов случайную величину которая принимает значения 0 или 1: {1, если Z-й объект приведен в состояние S, 0, если Z-й объект не приведен в состояние S. Случайная величина X— число объектов, приведенных в состоя- ние S, — может быть представлена в виде суммы: п
10.3] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 237 Отсюда, пользуясь теоремой сложения математических ожиданий, получим: тх — Математическое ожидание каждой из случайных величин XL известно: Следовательно, (ю.3.16) 4 = 1 т. е. математическое ожидание числа объектов, приведенных в состоя- ние S, равно сумме вероятностей перехода в это состояние для каждого из объектов. Особо подчеркнем, что для справедливости доказанной формулы вовсе не нужно, чтобы объекты переходили в состояние S независимо друг от друга. Формула справедлива для любого вида воздействия. Задача 8. Дисперсия числа объектов, приведен- ных в заданное состояние. Если в условиях предыдущей задачи переход каждого из объектов в состояние S происходит независимо от всех других, то, применяя теорему сложения дисперсий к величине п /=1 получим дисперсию числа объектов, приведенных в состояние S: = (10.3.17) Если же воздействие по объектам производится так, что переходы в состояние S для отдельных объектов зависимы, то дисперсия числа объектов, переведенных в состояние S, выразится формулой (см. задачу 6) п (Ю.3.18) где Ру — вероятность того, что в результате воздействия Z-й и /-й объекты вместе перейдут в состояние S. Задача 9. Математическое ожидание числаопытов до А-го появления события. Производится ряд независимых опытов, в каждом из которых может с вероятностью р появиться событие А. Опыты проводятся до тех пор, пока событие А не появится k раз, после чего опыты
238 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 прекращаются. Определить математическое ожидание, дисперсию и с. к. о. числа опытов X, которое будет произведено. Решение. В примере 3 п° 5.7 были определены математическое ожидание и дисперсия числа опытов до первого появления события А: где р — вероятность появления события в одном опыте, q = 1 — р — вероятность непоявления. Рассмотрим случайную величину X — число опытов до £-го по- явления события Л. Ее можно представить в виде суммы: х = х1-1-х2+ ... +xk, где Хх — число опытов до первого появления события Л, Х2 — число опытов от первого до второго появления события Л (считая второе),- Хк — число опытов от (k— 1)-го до А-го появления события Л (считая Л-е). Очевидно, величины Xv Х2, ..., Xk независимы; каждая из них распределена по тому же закону, что и первая из них (число опытов до первого появления события) и имеет числовые характеристики Применяя теоремы сложения математических ожиданий и дисперсий, получим: (10.3.19) Задача 10. Средний расход средств додостижения заданного результата. В предыдущей задаче был рассмотрен случай, когда предпри- нимается ряд опытов с целью получения вполне определенного ре- зультата— k появлений события Л, которое в каждом опыте имеет одну и ту же вероятность. Эта задача является частным случаем другой, когда производится ряд опытов с целью достижения любого результата В, вероятность которого с увеличением числа опытов п возрастает по любому закону Р(п). Предположим, что на каждый опыт расходуется определенное количество средств а. Требуется
10.3] ПРИМЕНЕНИЯ ТЕОРЕМ .О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 239 найти математическое ожидание количества средств, которое будет израсходовано. Решение. Для того чтобы решить задачу, сначала предположим, что число производимых опытов ничем не ограничено, и что они продолжаются и после достижения результата В. Тогда некоторые из этих опытов будут излишними. Условимся называть опыт «не* обходимым», если он производится при еще не достигнутом резуль- тате В, и «излишним», если он производится при уже достигнутом результате В. Свяжем с каждым (Z-м) опытом случайную величину Xlt которая равна нулю или единице в зависимости от того, «необходимым» или «излишним» оказался этот опыт. Положим {1, если опыт оказался «необходимым», л О, если он оказался «излишним». Рассмотрим случайную величину X— число опытов, которое придется произвести для получения результата В. Очевидно, ее можно представить в виде суммы: Х = Хх + Х2+ ... +^+ ... (10.3.20) Из величин в правой части (10.3.20) первая (Л\) является неслу- чайной и всегда равна единице (первый опыт всегда «необходим»). Каждая из остальных — случайная величина с возможными значе- ниями 0 и 1. Построим ряд распределения случайной величины XL (I > 1). Он имеет вид: 0 1 —:-----------------------(10.3.21) Р (I — 1) ! — />(/—1> где Р (Z — 1) — вероятность достижения результата В после Z — 1 опытов. Действительно, если результат В уже был достигнут при пре- дыдущих I—1 опытах, то Х1 = 0 (опцт излишен), если не достигнут, то Xt = 1 (опыт необходим). Найдем математическое ожидание величины Хг Из ряда распре- деления (10.3.21) имеем: тх=0 -Р(1- 1)+ 1 • [1 -P(i- 1)] = 1 -Р(! - 1). Нетрудно убедиться, что та же формула будет справедлива и при Z = 1, так как Р (0) — 0. Применим к выражению (10.3.20) теорему сложения математи- ческих ожиданий. Получим: тх = 2 тх = 5 [1 — Р(! —1)1 /=1 1 /=1
240 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 10 или. обозначая I — 1 = к, тх—^11—Р(к)]. (10.3.22) л=о Каждый опыт требует затраты средств а. Умножая полученную величину тх на а, определим среднюю затрату средств на достиже- ние результата В: = ₽(*)]• (10.3.23) л=о Данная формула выведена в предположении, что стоимость каждого опыта одна и та же. Если это не так, то можно применить другой прием — представить суммарную затрату средств как сумму затрат на выполнение отдельных опытов, которая принимает два значения: ait если /-й опыт «необходим», и нуль, если он «излишен». Средний расход средств SB представится в виде: 5в=2ал[1 —Р(А)]. (10.3.24) Л = 0 Задача И. Математическое ожидание суммы слу- чайного числа случайных слагаемых. В ряде практических приложений теории вероятностей приходится встречаться с суммами случайных величин, в которых число слагаемых заранее неизвестно, случайно. Поставим следующую задачу. Случайная величина Z представляет собой сумму Y случайных величин: Y (10.3.25) / = 1 причем Y — также случайная величина. Допустим, что нам известны математические ожидания mXi всех слагаемых: и что величина Y не зависит ни от одной из величин Xt. Требуется найти математическое ожидание величины Z. Решение. Число слагаемых в сумме есть дискретная случайная величина. Предположим, что нам известен ее ряд распределения: Где рк — вероятность того, что величина Y приняла значение k. Зафиксируем значение Y = k и найдем при этом условии математи-
10.3] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 241 ческое ожидание величины Z (условное математическое ожидание): к = (10.3.26) Теперь применим формулу полного математического ожидания, для чего умножим каждое условное математическое ожидание на вероятность соответствующей гипотезы pk и сложим: к M[Z]=^iPlt'SlmJc.. (10.3.27) к Z=1 1 Особый интерес представляет случай, когда все случайные вели- • чины Xv Х2» • • • имеют одно и то же математическое ожидание: Тогда формула (10.3.26) принимает вид: к М[Z| А] = 2 тх — 1 И М [Z] — тх 2 kpk. (10.3.28) к Сумма в выражении (10.3.28) представляет собой не что иное, как математическое ожидание величины К:- my=2 крк. k Отсюда mx = M[Z} = mx-my, (10.3.29) т. е. математическое ожидание суммы случайного числа случайных слагаемых с одинаковыми средними значениями (если только число слагаемых не зависит от их значений) равно произведению среднего значения каждого из слагаемых на среднее число слагаемых. Снова отметим, что полученный результат справедлив как для независимых, так и для зависимых слагаемых Xv Х2...........лишь бы число слагаемых К не зависело от самих слагаемых. Ниже мы решим ряд конкретных примеров из разных областей практики, на которых продемонстрируем конкретное применение общих методов оперирования с числовыми характеристиками, выте- кающих из доказанных теорем, и специфических приемов, связанных с решенными выше общими задачами. Прим.ер 1. Монета бросается 10 раз. Определить математическое ожи- дание и среднее квадратическое отклонение числа X выдавших гербов. Решение. По формулам (10.3.7) и (10.3.10) найдем: тх = 10-0,5 = 5; Dx = 10• 0,5.0,5 = 2,5; <jx=1,58. Пример 2. Производится 5 независимых выстрелов по круглой мишени диаметром 20 см, Прицеливание — по центру мишени, систематическая
242 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 ошибка отсутствует, рассеивание — круговое, среднее квадратическое откло- нение з = 16 см. Найти математическое ожидание и с. к. о. числа попаданий. Решение. Вероятность попадания в мишень при одном выстреле вычислим по формуле (9.4.5): k2 р=1—е~ 2 =1— е'0-625 « 0,465. Пользуясь формулами (10.3.7) и (10.3.10), получим: тх = 5р » 2,32; = 5р (1 — р) « 1,25; « 1,12. Пример 3. Производится отражение воздушного налета, в котором участвует 20 летательных аппаратов типа 1 и 30 летательных аппаратов типа 2. Летательные аппараты типа 1 атакуются истребительной авиацией. Число атак, приходящееся на каждый аппарат, подчинено закону Пуассона с параметром = 2,5. Каждой атакой истребителя летательный аппарат типа 1 поражается с вероятностью р{ = 0,6. Летательные аппараты типа 2 ата- куются зенитными управляемыми ракетами. Число ракет, направляемых на каж- дый аппарат, подчинено закону Пуассона с параметром а2 = 1,8, каждая ракета поражает летательный аппарат типа 2 с вероятностью р2 = 0,8. Все аппараты, входящие в состав налета, атакуются и поражаются независимо друг от друга. Найти: 1) математическое ожидание, дисперсию и с. к. о. числа пораженных летательных аппаратов типа 1; 2) математическое ожидание, дисперсию и с. к. о. числа пораженных летательных аппаратов типа 2; 3) математическое ожидание, дисперсию и с. к. о. числа пораженных летательных аппаратов обоих типов. Решение. Рассмотрим вместо «числа атак» на каждый аппарат типа I «число поражающих атак», тоже распределенное по закону Пуассона, но с другим параметром: а* = ргах = 0,6 • 2,5 = 1,5. Вероятность поражения каждого из летательных аппаратов типа 1 будет равна вероятности того, что на него придется хотя бы одна поражаю- щая атака: = 1 — е-1’5 « 0,777. Вероятность поражения каждого из летательных аппаратов типа 2 найдем аналогично: R& = 1 — г-081’8 = 1 — е'1’44 « 0,763. Математическое ожидание числа пораженных аппаратов типа 1 будет: == 20 • 0,777 = 15,5. Дисперсия и с. к. о. этого числа: Dx = 20 • 0,777.0,223 = 3,46, » 1,86. Математическое ожидание, дисперсия числа и с. к. о. пораженных аппа- ратов типа 2: * т2 = 30-0,763 = 22,8, £>2 = 5,41, о2 » 2,33. Математическое ожидание, дисперсия и с. к. о. общего числа поражен- ных аппаратов обоих типов: ni=/n1+m2 = 38,3, D = D14-D2 = 8,87, з2«2,97.
и центральными моментами и Рис. 10.3.2, 10.3] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 243 Пример 4. Случайные величины X и Y представляют собой элемен- тарные ошибки, возникающие на входе прибора. Они имеют математические ожидания тх ——2 и ту = 4, дисперсии Dx = 4 и Dy = 9; коэффициент корреляции этих ошибок равен гжу =— 0,5. Ошибка на выходе прибора связана с ошибками на входе функциональной зависимостью: Z = ЗХ2 — 2ХКF2 — 3. Найти математическое ожидание ошибки на выходе прибора. Решение. тг = М [Z] = ЗМ [X2] — 2М [ХУ] + М [Г2] - 3. Пользуясь связью между начальными формулой (10.2.17), имеем: М [X2] = a2[X] = Dx+m2JC = 8; м [У2] = а2 [У] = £>у + т2 = 25; М [XY] = тхту Кху = = тхту 4" гхуяхяу — — откуда ^ = 3.8 —2-(—11) +25 —3 = 68. Пример 5. Самолет производит бом- бометание по автостраде, ширина которой 30 м (рис. 10.3.2). Направление полета со- ставляет угол • 30° с направлением авто- страды. Прицеливание — по средней линии автострады, систематические ошибки отсут- ствуют. Рассеивание задано главными ве- роятными отклонениями: по направлению полета Вл = 50 м и в боковом направлении Вб = 25 м. Найти вероятность попадание в автостраду при сбрасывании одной бомбы. Решение. Спроектируем случайную точку попадания на ось Ох, пер- пендикулярную к автостраде и применим формулу (10.3.3). Она, очевидно, остается справедливой, если в нее вместо средних квадратических подста- вить вероятные отклонения: £2 = £2 cos 60° 4- £2 sin 60° = 50М^5 4- 252 • 0,75 »1093. Отсюда Вероятность попадания в автостраду найдем по формуле (6.3.10): '’=2ф'(-вд-)-1”0’238- Примечание. Примененный здесь прием пересчета рассеивания к другим осям пригоден только для вычисления вероятности попадания в область, имеющую вид полосы; для прямоугольника, стороны которого повернуты под углом к осям рассеивания, он уже не годится. Вероятность попадания в каждую из полос, пересечением которых образован прямоуголь- ник, может быть вычислена с помощью этого приема, однако вероятность
244 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ.. 10 попадания в прямоугольник уже не равна произведению вероятностей по- падания в полосы, так как эти события зависимы. Пример 6. Производится наблюдение с помощью системы радиоло- кационных станций за группой объектов в течение некоторого времени; группа состоит из четырех объектов; каждый из них за время t обнаружи- вается с вероятностью, равной соответственно: р{ = 0,2, р2 = 0,25, = 0,35, р4 = 0,42. Найти математическое ^ожидание числа объектов, которые будут обна- ружены через время £ Решение. По формуле (10.3.16) имеем: 4 тх = 2 Pl= 012 + 0125 + 0)35+°-42 = 1=1 Пример 7. Предпринимается ряд мероприятий, каждое из которых, если оно состоится, приносит случайный чистый доход X, распределенный по нормальному закону со средним значением /и = 2 (условных единиц). Число мероприятий за данный период времени случайно и распределено по закону Pl 0,2 0,3 0,4 0,1 причем не зависит от доходов, приносимых мероприятиями. Определить средний ожидаемый доход за весь период. Решение. На основе задачи 11 данного п° находим математическое ожидание полного дохода Z: 1ft g =г 1ft х * Iftyt где mx — средний доход от одного мероприятия, ту — среднее ожидаемое число мероприятий. Имеем* Гоу = 1 • 0,2 4-2 • 0,3 + 30,4 + 4 • 0,1 = 2,4, тж = 2, тг = 2.2,4 = 4,8. Пример 8. Ошибка прибора выражается функцией £7 = 3Z-|-2X—-К-4, (10.3.30) где X, К, Z — так называемые «первичные ошибки», представляющие собой систему случайных величин (случайный вектор). Случайный вектор (X, К, Z) характеризуется математическими ожида- ниями mr =—4; ту — 1; тг—1 и корреляционной матрицей: КХу D, Kxz IP 1 -18 = 3 1 I. Dz I 41
10.3] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 245 Определить математическое ожидание, дисперсию и среднее квадратиче- ское отклонение ошибки прибора. Решение. Так как функция (10.3.30) линейна, применяя формулы (10.2.6) и (10.2.13), находим: тпи = Zmz -|- 2т х — ту — 4 = —10, Du = 3’ • Dz + 22 • Dx + 1* • Dy + 2 [3.2. Кхг + 3 (-1) Куг + 2 (-1) Кху] = 25, оа =5. Пример 9. Для обнаружения источника неисправности в вычислитель- ной машине проводятся пробы (тесты). В каждой пробе неисправность неза- висимо от других проб локализуется с вероятностью р = 0,2. На каждую пробу в среднем уходит 3 минуты. Найти математическое ожидание времени, которое потребуется для локализации неисправности. Решение. Пользуясь результатом задачи 9 данного п° (математическое ожидание числа опытов до А-го появления события Л), полагая k = 1, най- дем среднее число проб т* = 7 = oj = 5* На эти пять проб потребуется в среднем 5.3 = 15 (минут). Пример 10. Производится стрельба по резервуару с горючим. Вероят- ность попадания при каждом выстреле равна 0,3. Выстрелы независимы. При первом попадании в резервуар появляется только течь горючего, при втором попадании горючее воспламеняется. После воспламенения горючего стрельба прекращается. Найти математическое ожидание числа произведен- ных выстрелов. Решен це. Пользуясь той же формулой, что и в предыдущем примере, найдем математическое ожидание числа выстрелов до 2-го попадания: 9 /^ = -^ = 6,67. и,о Пример 11. Вероятность обнаружения объекта радиолокатором сро- стом числа циклов обзора растет по закону: Р(П) = 1— 0,8л, где п — число циклов, начиная с начала наблюдения. Найти математическое ожидание числа циклов, после которого объект будет обнаружен. Решение. Пользуясь результатами задачи 10 данного параграфа получим: со ср тх = S 11 “ Р <*)] = S °'8П = =5- Л = 0 А = 0 Пример 12. Для того чтобы выполнить определенную задачу по сбору информации, в заданный район высылается несколько разведчиков. Каждый посланный разведчик достигает района назначения с вероятностью 0,7. Для выполнения задачи достаточно наличия в районе трех разведчиков. Один разведчик с задачей вообще справиться не может, а два разведчика выпол- няют ее с вероятностью 0,4. Обеспечена непрерывная связь с районом, и до- полнительные разведчики посылаются, только если задача еще не выполнена.
246 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Требуется найти математическое ожидание числа разведчиков, которые будут посланы. Решение. Обозначим X — число прибывших в район разведчиков, которое оказалось достаточным для выполнения задачи. В задаче 10 дан- ного п° было найдено математическое ожидание числа опытов, которое нужно для того, чтобы достигнуть определенного результата, вероятность которого с увеличением числа опытов возрастает по закону Р (л). Это математическое ожидание равно: тх= J [1-^WI- *=о В нашем случае: Р(0) = 0; Р(1) = 0; Р(2) = 0,4; Р(3) = 1; Р(4) = Р(5)= ... =1. Математическое ожидание величины X равно: тх — М[Х] = 2 [1 — Р (*)] = 1 +1+0,6 = 2,6. л = о Итак, для того чтобы задача была выполнена, необходимо, чтобы в район прибыло в среднем 2,6 разведчика. Теперь решим следующую задачу. Сколько разведчиков придется в сред- нем выслать в район для того, чтобы их в среднем прибыло тх1 Пусть послано Y разведчиков. Число прибывших разведчиков можно представить в виде x=z1 + z2+ ... +zr где случайная величина Z, принимает значение 1, если Z-й разведчик при- был, и 0, если не прибыл. Величина X есть не что иное, как сумма случай- ного числа случайных слагаемых (см. задачу 11 данного n°). С учетом этого имеем: М [X] = М [ZJ М [Г], откуда li M[Zt] M[Zt]’ но Af[Z/] = p, где р — вероятность прибытия отправленного разведчика (в нашем случае /> = 0,7). Величина тх нами только что найдена и равна 2,6. Имеем: 26 /пу = Л1[Г] = -^-»3,71. * Пример 13. Радиолокационная станция просматривает область про- странства, в которой находится N объектов. За один цикл обзора она обна- руживает каждый из объектов (независимо от других циклов) с вероят- ностью р. На один цикл требуется время т. Сколько времени потребуется на то, чтобы из N объектов обнаружить в среднем Л? Решение. Найдем прежде всего математическое ожидание числа обнаруженных объектов после п циклов обзора. За п циклов один (любой) из объектов обнаруживается с вероятностью ря=1-(1-р)»,
10.3] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 247 а среднее число объектов, обнаруженных за п циклов, по теореме сложения математических ожиданий (см. задачу 5 данного п°) равно: М[Х]«=Аф--(1--р)"]. Полагая ДЦ1 —(1 —р)*] = А, получим необходимое число циклов п из уравнения ь решая которое, найдем: Ч‘-4) lg(l-р) ’ откуда время, необходимое для обнаружения в среднем k объектов, будет равно: th = тл = т —------- . * lg(l —р) Пример 14. Изменим условия примера 13. Пусть радиолокационная станция ведет наблюдение за областью только до тех пор, пока не будет обнаружено k объектов, после чего наблюдение прекращается или продол- жается в новом режиме. Найти математическое ожидание времени, которое для этого понадобится. Для того чтобы решить эту задачу, недостаточно задаться вероятностью обнаружения одного объекта в одном цикле, а надо еще указать, как растет с увеличением числа циклов вероятность того, что из N объектов будет обнаружено не менее k. Проще всего вычислить эту вероятность, если пред- положить, что объекты обнаруживаются независимо друг от друга. Сделаем такое допущение и решим задачу. Решение. При независимых обнаружениях можно наблюдение за N объектами представить как N независимых опытов. После п циклов каждый из объектов обнаруживается с вероятностью рл=1-(1-рЛ Вероятность того, что после п циклов будет обнаружено не менее k объек- тов из Nt найдем по теореме о повторении опытов: N fn= k Среднее число циклов, после которых будет обнаружено не менее k объектов, определится по формуле (10.3.22): оо N г N ~1 = 2 [1 -4я,М = 2 ’ - 2 ^рп (1 -pn)N-m • л = 0 л = 0 L m-k J Пример 15. На плоскости хОу случайная точка М с координа- тами (X, Y) отклоняется от требуемого положения (начало координат) под влиянием трех независимых векторных ошибок V\, V2 и У3. Каждый из век- торов характеризуется двумя составляющими: У1(*ь г,), V2{X2, Г2), V3(X3. Г8)
248 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 (рис. 10.3.3). Числовые характеристики этих трех векторов равны: тг =2, mv = —3, аг = 2, av =3, r„v ==—0,3, •м zi ’ *i ’ У1 * х&1 ’ ’ /иг=-1> mv =—2, Зк=4, зи=1, rrv =0,5» •*2 Уг -*1 ’ Уг * ’ m=3, mv=l, a= 2, % =2, г =0,2. •*» Уз *9- Уз -*зУз Найти характеристики суммарной ошибки (вектора, отклоняющего точку М от начала координат). Решение. Применяя теоремы сложения математических ожиданий, дисперсий и корреляционных моментов, получим: mx=mxt + m*i + mx,’=‘4' ту = ту, + ту, + ту, — ~ 4’ + <+’! = 24. «х =/24 «4,99, °у = °у, + ®у2 + °у, = 14, ау = /I? « 3,75, Кху ~ KXly, + КХ2уа + Kx^t, где ^iyi = rXiyiVy=-0,3^.3 = _l,8, Кх v = г г V ar av = 0,5 • 4 • 1 = 2,0, Х2У2 Х2У2 х2 Уа ’ /с = rrvaa =» 0,2 -2 -2 = 0,8, 'х8Уа х8Уз jci ул * ’ JC откуда Кху = —1,8 + 2,0 + 0,8 » 1,0 и ГгУ “ 4,90-3,75 № °’054' Пример 16. Тело, которое имеет форму прямоугольного параллелепи- педа с размерами at bt с, летит в пространстве, беспорядочно вращаясь вокруг центра массы так, что все его ориентации одинаково вероятны. Тело находится в потоке частиц, и среднее число частиц, встречающихся с телом, пропорционально средней площади, которую тело подставляет потоку. Найти математическое ожидание площади проекции тела на плоскость, пер- пендикулярную направлению его движения. Решение. Так как все ориентации тела в пространстве одинаково вероятны, то направление плоскости проекций безразлично. Очевидно, пло- щадь проекции тела равна половине суммы проекций всех граней паралле- лепипеда (так как каждая точка проекции представляет собой проекцию двух точек на поверхности тела). Применяя теорему сложения математи- ческих ожиданий и формулу для средней площади проекции плоской фигуры (см. пример 3 п° 10.1), получим: ab , ас , be Sn где Sn — полная площадь поверхности параллелепипеда. Заметим, что выведенная формула справедлива не только для паралле- лепипеда, но и для любого выпуклого тела: средняя площадь проекции та- кого тела при беспорядочном вращении равна одной четверти полной его поверхности. Рекомендуем читателю в качестве упражнения доказать это положение.
ЮЗ] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 249 Пример 17. На оси абсцисс Ох движется случайным образом точка х по следующему закону. В начальный момент она находится в начале коор- динат и начинает двигаться с вероятностью -g- вправо и с вероятностью -i- влево. Пройдя* единичное расстояние, точка с вероятностью р продолжает двигаться в том же направлении, а с вероятностью q = 1 — р меняет его на противоположное. Пройдя единичное расстояние, точка снова с вероят- ностью р продолжает движение в том направлении, в котором двигалась, а с вероятностью 1 — р меняет его на противоположное и т. д. В результате такого случайного блуждания по оси абсцисс точка х после п шагов займет случайное положение, которое мы обозначим Хп. Требуется найти характеристики случайной величины Хл: математическое ожидание и дисперсию. Решение. Прежде всего, из соображений симметрии задачи ясно, что М [Хп\ = 0. Чтобы найти D [Хя], представим Хп в виде суммы п слагаемых: п Хп = их + и2+ ... +Un=-^Ui, (10.3.31) < = 1 где Ui — расстояние, пройденное точкой на f-м шаге, т. е. 4-1, если точка двигалась на этом шаге вправо, и —1, если она двигалась влево. По теореме о дисперсии суммы (см. формулу (10.2.10)) имеем: п D[X,]-%D[U№ 5 К *=1 z<; Ясно, что D[tTJ = l, так как величина Ui принимает значения 44 и —1с одинаковой вероятностью (из тех же соображений симметрии). Най- дем корреляционные моменты Начнем со случая / = /—f-1, когда величины Ui и Uj стоят рядом в сумме (10.3.31). Ясно, что Щи^ принимает значение -Н с вероятностью р и значение —1 с вероятностью q. Имеем: К„Л+1 = М [^+1] = 1. р+ (-1) q = p-q. Рассмотрим, далее, случай j = i -f- 2. В этом случае произведение U^Uу равно 4-1, если оба перемещения — на /-м и /4* 2-м шаге — происходят в одном и том же направлении. Это может произойти двумя способами. Или точка х всё три шага — /-й, (/4-1)-й и (/4”2)-й — двигалась в одном и том же направлении, или же она дважды изменила за эти три шага свое направление. Найдем вероятность того, что С////+2==1: р (Ui = 1) = Р ((UtUi+l = 1) (Ul+tUt+t -1)) + + Р ((CZA+i = -1) (Ut+lUt+2 = -1) ) = р* + q*. Найдем теперь вероятность того, что UjUt+2^ — 1- Это тоже может произойти двумя способами: или точка изменила свое направление при пере- ходе от f-го шага к (Z -f- 1)-му, а при переходе от (z*4“ 1)-го шага к О’ + 2)-му сохранила его, или наоборот. Имеем: Р = 1) = Р ( (UtUl+, = - 1) (Ui+iUl+i = 1) ) + + Р( (UtUl+i = 1) ---1)) = 2pq.
250 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Таким образом, величина UfJ^ имеет два возможных значения -Н и —1, которые она принимает с вероятностями соответственно p2-\-q2 и 2pq. Ее математическое ожидание равно: ==MlUlUw]=‘P3 + ^ — 2РЧ = (Р — Я?- Легко доказать по индукции, что для любого расстояния k между ша- гами в ряду Uу U2, ...» Un справедливы формулы: /4W+» = 1) ~р*+Ф*'V+Ф*”¥+ .... —1)=ф*-’9+Ф*-3«3+.... и, следовательно, Таким образом, корреляционная матрица системы случайных величин Ui, Uit.... Un будет иметь вид: (р-?)»-» 1 Дисперсия случайной величины Хп будет равна: ста=2Р[^]+2 s ^,=«+2 5 (р-?)К /=1 i<J Fj i<j или же, производя суммирование элементов, стоящих на одном расстоянии от главной диагонали, D [Х„] - п + 2 2 (п - к) (р - »)» Л=1 Пример 18. Найти асимметрию биномиального распределения Р (X = т) = C™pmqn~m (q = 1 — р). (10.3.32) Решение. Известно, что биномиальное распределение (10.3.32) пред- ставляет собой распределение числа появлений в п независимых опытах не- которого события, которое в одном опыте имеет вероятность р. Представим случайную величину X — число появлений события в п опытах — как сумму п случайных величин: п /=1 где ( 1, если в Z-м опыте событие появилось, * — I 0, если в Z-м опыте событие не появилось. По теореме сложения третьих центральных моментов Нз [Л] = 2 Iх’ №1- is 1 (10.3.33)
10.3] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 251 Найдем третий центральный момент случайной величины Она имеет ряд распределения Ч I Р Третий центральный момент величины равен: х (0 — рУч + (1 — рУ р = — РЛЧ + Ч*Р = pq (q — Р). Подставляя в (10.3.33), получим: п |*з [Л = У: рч (ч—р) = прч(ч—р)- i=i Чтобы получить асимметрию, нужно разделить третий центральный мо- мент величины X на куб среднего квадратического отклонения: Sf; _ пРЧ (Ч — Р) (прч)2 Ч — Р Vnpq ' Пример 19. Имеется п положительных, одинаково распределенных независимых случайных величин: х2,...,хл. Найти математическое ожидание случайной величины Z Х1 1 Xi 4-^2+ • •• Решение. Ясно, что математическое ожидание величины Zt суще- ствует, так как она заключена между нулем и единицей. Кроме того, легко видеть, что закон распределения системы величин (Хр Х2, ..., Хп), каков бы он ни был, симметричен относительно своих переменных, т. е. не меняется при любой их перестановке. Рассмотрим случайные величины: Очевидно, их закон распределения тоже должен обладать свойством сим- метрии, т. е. не меняться при замене одного аргумента любым другим и наоборот. Отсюда, в частности, вытекает, что Al[ZI] = Af[Z2]= ... = Л4 [Z„]. Вместе с тем нам известно, что в сумме случайные величины Zb Z2, ..., Zn образуют единицу, следовательно, по теореме сложения математических ожиданий, Al[Zl] + Af[Z2]+ ... + M[Zn] = M [1] = 1, откуда M[Z,] = M[Z2]= ... =Af[Z„] = l.
ГЛАВА 11 ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ 11.1. Метод линеаризации функций случайных аргументов В предыдущей главе мы познакомились с весьма удобным мате- матическим аппаратом теории вероятностей — с аппаратом числовых характеристик. Этот аппарат во многих случаях позволяет находить числовые характеристики функций случайных величин (в первую оче- редь— математическое ожидание и дисперсию) по числовым харак- теристикам аргументов, оставляя совершенно в стороне законы рас- пределения. Такие методы непосредственного определения числовых характеристик применимы главным образом к линейным функциям. На практике очень часто встречаются случаи, когда исследуемая функция случайных величин хотя и не является строго линейной, но практически мало отличается от линейной и при решении задачи может быть приближенно заменена линейной. Это связано с тем, что во многих, практических задачах случайные изменения фигурирующих в них величин выступают как незначительные «погрешности», накла- дывающиеся на основную закономерность. Вследствие сравнительной малости этих погрешностей обычно фигурирующие в задаче функции, не будучи линейными во всем диапазоне изменения своих аргументов, оказываются почти линейными в узком диапазоне их случайных изменений. Действительно, из математики известно, что любая непрерывная дифференцируемая функция в достаточно узких пределах изменения аргументов может быть приближенно заменена линейной (линеаризо- вана). Ошибка, возникающая при этом, тем меньше, чем уже границы изменения аргументов и чем ближе функция к линейной. Если область практически возможных значений случайных аргументов настолько мала, что в этой области функция может быть с достаточной для практики точностью линеаризована, то, заменив нелинейную функцию линейной, можно применить ^последней тот аппарат числовых харак- теристик, который разработан для линейных функций. Зная числовые характеристики аргументов, можно будет найти числовые характе- ристики функции. Конечно, при этом мы получим лишь приближен-
11.2] ЛИНЕАРИЗАЦИЯ ФУНКЦИИ ОДНОГО СЛУЧАЙНОГО АРГУМЕНТА 253 ное решение задачи, но в большинстве случаев точного решения и не требуется. При решении практических задач, в которых случайные факторы сказываются в виде незначительных возмущений, налагающихся на основные закономерности, линеаризация почти всегда оказывается возможной именно в силу малости случайных возмущений. Рассмотрим, например, задачу внешней баллистики о движении центра массы снаряда. Дальность полета снаряда X определяется как некоторая функция условий стрельбы — угла бросания 90, начальной скорости и баллистического коэффициента с\ ^ = ?(9о> (11.1.1) Функция (11.1.1) нелинейна, если рассматривать ее на всем диа- пазоне изменения аргументов. Поэтому, когда речь идет о решении основной задачи внешней баллистики, функция (11.1.1) выступает как нелинейная и никакой линеаризации не подлежит. Однако есть задачи, в которых такие функции линеаризуются; это —задачи, свя- занные с исследованием ошибок или погрешностей. Пусть нас интересует случайная ошибка в дальности полета снаряда Х9 связанная с наличием ряда случайных факторов: неточностью уста- новки угла б0, колебаниями ствола при выстреле, баллистической неоднородностью снарядов, различными весами зарядов и т. д. Тогда мы зафиксируем определенные номинальные условия стрельбы и будем рассматривать случайные отклонения от этих условий. Диапазон таких случайных изменений, как правило, невелик, и функция ср, не будучи линейной во всей области изменения своих аргументов, может быть линеаризована в малой области их случайных изменений.. Метод линеаризации функций, зависящих от случайных аргументов, находит самое широкое применение в различных областях техники. Очень часто, получив решение задачи обычными методами «точных наук», желательно оценить возможные погрешности в этом решении, связанные с влиянием не учтенных при решении задачи случайных факторов. В этом случае, как правило, задача оценки погрешности успешно решается методом линеаризации, так как случайные изме- нения фигурирующих в задаче величин обычно невелики. Если бы это было не так, и случайные изменения аргументов выходили за пределы области примерной линейности функций, следовало бы счи- тать техническое решение неудовлетворительным, так как оно содер- жало бы слишком большой элемент неопределенности. 11.2. Линеаризация функции одного случайного аргумента На практике необходимость в линеаризации функции одного слу- чайного аргумента встречается сравнительно редко: обычно прихо- дится учитывать совокупное влияние нескольких случайных факторов. Однако из методических соображений удобно начать с этого наиболее
254 ЛИНЕАРИЗАЦИЯ ФУНКЦИИ (ГЛ. И простого случая. Пусть имеется случайная величина X и известны ее числовые характеристики: математическое ожидание тх и диспер- сия Dx. Допустим, что практически возможные значения случайной вели- чины X ограничены пределами а, р, т. е. Р(а<Х<Р)«1. Имеется другая случайная величина F, связанная с X функцио- нальной зависимостью: Г = ?С¥)1), (11.2.1) причем функция ф хотя не является линейной, но мало отличается от линейной на участке (а, Р). Требуется найти числовые характеристики величины Y — матема- тическое ожидание ту и дисперсию Dy. Рассмотрим кривую у = ср(х) на участке (а, Р) (рис. 11.2.1) и за- меним ее приближенно касательной, проведенной в точке М с абс- циссой тх. Уравнение касательной имеет вид: . + (тх){х — тх). (11.2.2) Предположим, что интервал практически возможных значений аргумента (а, Р) настолько узок, что в пределах этого интервала кривая и касательная различаются мало, У ул так что участок кривой практически можно заменить участком касательной; ' короче, на участке (а, р) функция JT I у = ср(х),почти линейна. Тогда I | случайные величины X и Y прибли- жу I I женно связаны линейной зависимостью: ( I I К = <р(тж)4-<р,(«ж)(Л'—тл), III j_____J______। х или, обозначая X — тх = Х, ° Л ах ? Г = <р(тж) + <р'(«ж)Х. (11.2.3) Рис. 11.2.1, к линейной функции (11.2.3) можно применить известные приемы определе- ния числовых характеристик линейных функций (см. п° 10.2). Мате- матическое ожидание этой линейной функции найдем, подставляя в ее выражение (11.2.3) математическое ожидание аргумента Xs равное нулю. Получим: ту = <?(тх). (11.2.4) 9 Функцию на участке (а, ?) предполагаем непрерывной и дифферен- цируемой.
»1.3] ЛИНЕАРИЗАЦИЯ ФУНКЦИИ НЕСКОЛЬКИХ СЛУЧАЙНЫХ АРГУМЕНТОВ 255 Дисперсия величины Y определится по формуле D, = [<f'(mx)pDx. (11.2.5) Переходя к среднему квадратическому отклонению, имеем: °у = 1?,('»л.)|ал.. (11.2.6) Формулы (11.2.4), (11.2.5), (11.2.6), разумеется, являются прибли- женными, поскольку приближенной является и сама замена нелиней- ной функции линейной. Таким образом, мы решили поставленную задачу и пришли к сле- дующим выводам. Чтобы найти математическое ожидание почти линейной функции, нужно в выражение функции вместо аргумента подставить его мате- матическое ожидание. Чтобы- найти дисперсию почти линейной функ- ции, нужно дисперсию аргумента умножить на квадрат производ- ной функции в точке, соответствующей математическому ожиданию арумента. 11.3. Линеаризация функции нескольких случайных аргументов Имеется система п случайных величин: (Хр Х2, .... Хп) и заданы числовые характеристики системы: математические ожидания тХе тх^ .... тХп и корреляционная матрица. *п Кп...КХп ^22 • • • %2п «ап Случайная величина Y есть функция аргументов Xv Х2.......Хп- Y = y(XvX2........Хя), (11.3.1) причем функция ^ не линейна, но мало отличается от линейной в области практически возможных значений всех аргументов (короче, «почти линейная» функция). Требуется приближенно найти числовые характеристики величины Y — математическое ожидание ту и дис- персию Dy. Для решения задачи подвергнем линеаризации функцию У = ?(*!. *2......Хп). (11.3.2)
256 ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ [ГЛ. 11 В данном случае нет смысла пользоваться геометрической интер- претацией, так как за пределами трехмерного пространства она уже не обладает преимуществами наглядности. Однако качественная сто- рона вопроса остается совершенно той же, что и в предыдущем п°. Рассмотрим функцию у = ср(х1, лг2, хп) в достаточно малой окрестности точки тхе тХ2, .... тХп. Так как функция в этой окре- стности почти линейна, ее. можно приближенно заменить линейной. Это равносильно тому, чтобы в разложении функции в ряд Тейлора около точки (/пХ1, тХ2, ...» сохранить только члены первого порядка, а все высшие отбросить: У = <р(лр х2, ...» х„)« тХг.......... mXn)(Xl — т^. Значит, и зависимость (11.3.1) между случайными величинами можно приближенно заменить линейной зависимостью: Y = <f(mXi, mXi. .... + (OTx,. mXt...(11.3.3) Введем для краткости обозначение: mXi..... тХд) = (Д)да7 О Учитывая, что mXl = XL, перепишем формулу (11.3.3) в виде: п .....”Ч)+2(£)Л <1ьз-4> К линейной функции (11.3.4) применим способы определения чи- словых характеристик линейных функций, выведенные в п° 10.2. • о о о Имея в виду, что центрированные аргументы (Xv Х2, ...» Хп) имеют математические ожидания, равные нулю, и ту же корреляционную матрицу ||К/у||, получим: ту = <р(/пХ1, mXt...тХп), (11.3.5) (11.3.6)
11.3] ЛИНЕАРИЗАЦИЯ ФУНКЦИИ НЕСКОЛЬКИХ СЛУЧАЙНЫХ АРГУМЕНТОВ 257 Переходя в последней формуле от дисперсий к средним квадра- тическим отклонениям, получим: п (11.3.7) где ri}— коэффициент корреляции величин Xj. Особенно простой вид принимает формула (11.3.7), когда вели- чины А\, zY2, ...» Хп не коррелированы, т. е. г^ = 0 при I =/= /. В этом случае п в2 = у(4Ч2 °2. У £Ддх( т *1 i=l (11.3.8) Формулы типа (11.3.7) и (11.3.8) находят широкое применение в различных прикладных вопросах: при исследовании ошибок раз- ного вида приборов и механизмов, а также при и анализе точности стрельбы и бомбометания, —" * в- — — Пример 1. Относ бомбы X (рис. 11.3.1) выра- жается приближенной аналитической формулой: \ X = Vo 1/ — (1 —1.8 • 10"5сЯ). (11.3.9) \ и \ где v0 — скорость самолета (м/сек), Н — высота сбра- \ сывания (ж), с —баллистический коэффициент. \ Высота Н определяется по высотомеру, скорость 1 самолета v0 — по указателю скорости, баллистиче- 1 ский коэффициент с принимается его номинальным I значением с = 1,00. Высотомер показывает 4000 м, I указатель скорости 150 м/сек. Показания высотомера I характеризуются систематической ошибкой-)-50 ж I и средним квадратическим отклонением = 40 м\ —+ - —----------*— показания указателя скорости — систематической ошибкой — 2 м/сек и средним квадратическим откло- Рис* *1*3.1. пением 1 м/сек\ разброс возможных значений бал- листического коэффициента с, обусловленный неточностью изготовления бомбы, характеризуется средним квадратическим отклонением »0,05. Ошибки приборов независимы между собой. Найти систематическую ошибку и среднее квадратическое отклонение точки падения бомбы вследствие неточности в определении параметров Я, v0 и с. Определить, какой из этих факторов оказывает наибольшее влияние на разброс точки падения бомбы. Решение. Величины Н, v0 и с представляют собой некоррелирован- ные случайные величины с числовыми характеристиками: ти = 3950 м; = 40 м\ И Н mV9 = 152 м/сек\ = 1 м/сек\ тс—\№\ — Так как диапазон возможных изменений случайных аргументов сравни- тельно невелик, для решения задачи можно применить метод линеаризации. 17-3015
258 ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ [ГЛ. и Подставляя в формулу (11.3.9) вместо величин Н, с/0 и с их математические ожидания, найдем математическое ожидание величины Х\ тлг = 4007 (м). Для сравнения вычислим номинальное значение: хном = 150 (1 —1,8 • 10~s • 1 • 4000) = 3975 (ж). Разность между математическим ожиданием и номинальным значением и представляет собой систематическую ошибку точки падения: Ьх = тх — Хном = 4007 — 3975 = 32 (ж). Для определения дисперсии величины X вычислим частные производные: — = (1 —1,8 • 10-5сЯ) — v0 \ f — • 1,8 • 10—5 с, дН V2Hg 9 V g 4^=1/ — (1 — 1,8.10-5сЯ), dv0 V g ' и подставим в эти выражения вместо каждого аргумента его математиче- ское ожидание: = 0,429; = 26,4; =-307. \ &Н )гй \ /т \ )т По формуле (11.3.8) вычислим среднее квадратическое отклонение вели- чины X: = 0,4292 • 402 + 26,42 • I2+3072 • 0,052 = 294,4 + 697,0 + 235,5 == 1126,9, откуда ах « 33,6 (ж). Сравнивая слагаемые, образующие а2, приходим к заключению, что наи- большее из них (697,0) обусловлено наличием ошибок в скорости о0; следо- вательно, в данных условиях из рассмотренных случайных факторов, обуслов- ливающих разброс точки падения бомбы, наиболее существенной является ошибка указателя скорости. Пример 2. Абсцисса точки попадания (в метрах) при стрельбе по са- молету выражается формулой X = Хп + 1,8<оП + Хб, (11.3.10) где Х№ — ошибка наводки (м), <о — угловая скорость цели (рад/сек), D — даль- ность стрельбы (м), Хб — ошибка, связанная с баллистикой снаряда (м). Величины Хн, «о, D, Х§ представляют собой случайные величины с ма- тематическими ожиданиями: тХа = 0; = 0,1; тл = 1000; тХ6 = 0 и средними квадратическими отклонениями: сЖн = 4; = 0,005; ал = 50; а<6 = 3.
П.4] УТОЧНЕНИЕ РЕЗУЛЬТАТОВ 259 Нормированная корреляционная матрица системы (Ха, Dt Х^) (т. е. матрица» составленная из коэффициентов корреляции) имеет вид: пп/Н = 1 0,5 0,3 0 1 0,4 О 1 О 1 Требуется найти математическое ожидание и среднее квадратическое отклонение величины X. Решение. Подставляя в формулу (11.3.10) математические ожидания аргументов, имеем: тх= 1^-0,1.1000 = 180 (ж). Для определения среднего квадратического отклонения величины X най- дем частные производные: Применяя формулу (11.3.7), имеем: <4 = (1 • 4)2 + (1800 - 0.005)2 4- (0,18 • 50)2 + (1 • З)2 + 2 • 1 • 1800 • ОД • 4 •0,005 4- 4- 2-1 • 0,18.0,3 • 4.50 4- 2 • 1800 • 0,18 • 0,4 - 0,005 . 50 — откуда = 16 4- 814- 814-9 4- 36 4- 21,6 4- 64,8 - 309,4, вж « 17Д (ж). 11.4. Уточнение результатов, полученных методом линеаризации В некоторых задачах практики возникает сомнение в применимости метода линеаризации в связи с тем, что диапазон изменений случай- ных аргументов не настолько мал, чтобы в его пределах функция могла быть с достаточной точностью линеаризована. В этих случаях для проверки применимости метода линеаризации и для уточнения полученных результатов может быть применен ме- тод, основанный на сохранении в разложении функции не только линейных членов, но и некоторых последующих членов более высо- ких порядков и оценке погрешностей, связанных с этими членами. Для того чтобы пояснить этот метод, рассмотрим сначала наибо- лее простой случай функции одного случайного аргумента. Случай- ная величина Y есть функция случайного аргумента Х\ (11.4.1) причем функция ср сравнительно мало отличается от линейной на участке практически возможных значений аргумента X, но все же
260 ЛИНЕАРИЗАЦИЯ ФУНКЦИЯ [ГЛ. II отличается настолько, что возникает сомнение в применимости ме- тода линеаризации. Для проверки этого обстоятельства применим более точный метод, а именно: разложим функцию <р в ряд Тей- лора в окрестности точки тх и сохраним в разложении первые три члена: у = <р (х)« <р (тх) 4- срх (mJ (х — m J 4- у <р" (mJ (х — тх)1 (11.4.2) Та же формула будет, очевидно, приближенно связывать случайные величины Y и X: у = ? («ж)+<t' (тх) (X -mJ 4-1 т" (mJ (X - тх? = = <p(mJ4-<?'(/»x)^4-4'p"('»J^2- (11.4.3) Пользуясь выражением (11.4.3), найдем математическое ожидание и дисперсию величины Y. Применяя теоремы о числовых характери- стиках, имеем: ту = <р (mJ 4- у <р" (mJ М [А'2] = <р (mJ 4- у <р" (mJ Dx. (11.4.4) По формуле (11.4.4) можно найти уточненное значение матема- тического ожидания и сравнить его с тем. значением <?(/пх), которое получается методом линеаризации; поправкой, учитывающей нелиней- ность функции, является второй член формулы (11.4.4). Определяя дисперсию правой и левой части формулы (11.4.3), имеем: D, = [<?' (mJ]2 Dx 4-11/ (m J]2 D[X2] + 4-<P'(mJ<P"(mjX[X, X2], (11.4.5) ° ° о о где К\Х, Х2\— корреляционный момент величин X, X2. Выразим входящие в формулу (lt.4.5) величины через централь- ные моменты величины X: D1X2] = м ]Х<] - {М [X2])2 = щ[X] - D2x. К[Х, Хг\ —М[Х [X2 — М\Х2\\\—^{Х\. Окончательно имеем: (mJ]2 Dx 4-1 [<р" (mJ]2 (И4 [ X] -D*)4- 4-<p'(mJ<p"(mJM*b (”-4-6) Формула (11.4.6) дает уточненное значение дисперсии по сравне- нию с методом линеаризации; ее второй и третий члены представ-
11.4] УТОЧНЕНИЕ РЕЗУЛЬТАТОВ 261 ляют собой поправку на нелинейность функции. В формулу, кроме дисперсии аргумента Dxt входят еще третий и четвертый централь- ные моменты ^[XJ, р.4[ЛГ]. Если эти моменты известны, то по- правка к дисперсии может быть найдена непосредственно по фор- муле (11.4.6). Однако зачастую нет необходимости в ее точном определении; достаточно лишь знать ее порядок. На практике часто встречаются случайные величины, распределенные приблизительно по нормальному закону. Для случайной величины, подчиненной нормаль- ному закону# |i3[A-] = 0; |*4(X] = 34 = 3D’, (11.4.7) и формула (11.4.6) принимает вид: Dy = [<?'. (mJ]2 Dx+1 (mJ ]2 D2X. (11.4.8) Формулой (11.4.8) можно пользоваться для приближенной оценки погрешности метода линеаризации в случае, когда аргумент распре- делен по закону, близкому к нормальному. Совершенно аналогичный метод может быть применен по отно- шению к функции нескольких случайных аргументов: Г«=М- Х2, .... Ха). (11.4.9) Разлагая функцию у = <р(Хр х2.............хп) в ряд Тейлора в окрестности точки лц, тх^.тх^ и сохраняя в разложении члены не выше второго порядка, имеем приближенно: п Y = <f(rnXi, mXt.+ /=1 п +12 (^)(X^tn^Xj-m^, /=1 \ */т \ i J /т или, вводя центрированные величины, п Y = <f{mxe тХг...'М + 2(’5Дп^ + Z=1 где индекс т по-прежнему обозначает, что в выражение частной производной вместо аргументов Xt подставлены их математические ожидания тх,.
262 ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ [ГЛ. !1 Применяя к формуле (11.4.10) операцию математического ожида- ния, имеем: my = <f(mXi, тХг, .... тх^ + i=l V 11 т i<j где Кд— корреляционный момент величин Xlt Xj. В наиболее важном для практики случае, когда аргументы Х19 Х2, ..., Хп некоррелированны, формула (11.4.11) принимает вид: ту = ?(тЛ1, тХг......+ (11.4.12) Второй член формулы (11.4.12) представляет собой поправку на нелинейность функции. Перейдем к определению дисперсии величины Y. Чтобы получить выражение дисперсии в наиболее простом виде, предположим, что величины Xv Х2......Хп не только некоррелированны, но и неза- висимы. Определяя дисперсию правой и левой части (11.4.10) и поль- зуясь теоремой о дисперсии произведения (см. п° 10.2), получим: л п + (^) (11.4.13) I < j \ 1 / т \ / т Для величин, распределенных по закону, близкому к нормальному, можно воспользоваться формулой (11.4.7) и преобразовать выраже- ние (11.4.13) к виду: + Sb^)4Dv <1,4|4> i<j Последние два члена в выражении (11.4.14) представляют собой «поправку на нелинейность функции» и могут служить для оценки точности метода линеаризации при вычислении дисперсии.
ГЛАВА 12 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ 12.1. Закон распределения монотонной функции одного случайного аргумента В предыдущих главах мы познакомились с методами определения числовых характеристик функций случайных величин; главное удоб- ство этих методов в том, что они не требуют нахождения законов распределения функций. Однако иногда возникает необходимость в определении не только числовых характеристик, но и законов рас- пределения функций. Начнем с рассмотрения наиболее простой задачи, относящейся к этому классу: задачи о законе распределения функции одного случайного аргумента. Так как для практики наибольшее значение имеют непрерывные случайные величины, будем решать задачу именно для них. Имеется непрерывная случайная величина X с плотностью рас- пределения /(х). Другая случайная величина К связана с нею функ- циональной зависимостью: г=<р(*п. Требуется найти плотность распределения величины У. Рассмотрим участок оси абсцисс (а, Ь), на котором лежат все возможные значения величины Х9 т. е. Р(а<Х<£) = 1. В частном случае, когда область возможных значений X ничем нс ограничена, а= — оо; 6 = + оо. Способ решения поставленной задачи зависит от поведения функ- ции ср на участке (а, Ь): возрастает ли она на этом участке или убывает, или колеблется. 9 Функцию ср предполагаем непрерывной и дифференцируемой.
264 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 12 В данном п° мы рассмотрим случай, когда функция у = <р(х) на участке (а, Ь) монотонна1). При этом отдельно проанализируем два случая: монотонного возрастания и монотонного убывания функции/ 1. Функция у = <р(х) на участке (а, Ь) монотонно возрастает (рис. 12.1.1). Когда величина X принимает различные значения на участке (a, b)t случайная точка (X, Y) перемещается только по кривой у = <р(х); ордината этой случайной точки полностью опре- деляется ее абсциссой. Обозначим g(y) плотность распределения величины Y. Для того чтобы определить g(y), най- дем сначала функцию распреде- ления величины Y: 0(у) = Р(Г<у). Проведем прямую АВ, парал- лельную оси абсцисс на расстоя- нии у от нее (рис. 12.1.1). Чтобы выполнялось условие Y < у, случайная точка (X, Y) должна попасть на тот участок кривой, который лежит ниже прямой АВ*, для этого необходимо и достаточно, чтобы слу- чайная величина X попала на участок оси абсцисс от а до х, где х — абсцисса точки пересечения кривой у = <р (х) и прямой АВ. Следовательно, X Q (у) = Р (Г < у) = Р (а < X < х) = f f (х) dx. а L Верхний предел интеграла х можно выразить через у: * = Ф(У). где ф— функция, обратная функции ср. Тогда Ф(у) G(y) = J f (x)dx. (12.1.1) а Дифференцируя интеграл (12.1.1) по переменной у, входящей в верх- ний предел, получим: g (У) = О' (у) = f (ф (у)) ф' (у). (12.1.2) !) Случай немонотонной функции будет рассмотрен в п° 12.3.
12.1) ЗАКОН РАСПРЕД. МОНОТОННОЙ ФУНКЦИИ ОДНОГО АРГУМЕНТА 265 2. Функция у = ср(х) на участке* (а, Ь) монотонно убывает (рис. 12.1.2). В этом случае _ " ь ь G(y) = P(Y <у) = Р(х<Х <*) = f f(x)dx = ff{x)dx, X Ф(у) откуда g (У) = О' (У) = - / (ф (У>) ♦' (У). (12.1.3) Сравнивая формулы (12.1.2) и (12.1.3), замечаем, что они могут быть объединены в одну: ^(У)=/(Ф(У))|Ф'(У)|. (12.1.4) Действительно, когда ср возрастает, ее производная (а значит, и ф') положительна. При убывающей функции <р производная ф' отрица- тельна, но зато перед ней в формуле (12.1.3) стоит минус. Следо- вательно, формула (12.1.4), в которой производная берется по модулю, верна в обоих случаях. Таким образом, задача о законе рас- пределения монотонной функции решена. Пример. Случайная величина X подчинена закону Коши с плотностью распределения: = я(14-х»)' Величина Y связана с X зависимостью К=1- X3. Найти плотность распределения ве- г * 1 личины V. Решение. Так как функция у = 1 — х3 монотонна на участке (—оо, 4-оо), можно применить формулу (12.1.4). Решение задачи оформим в виде двух столбцов: в левом будут помещены обозначения функций, при- нятые в общем решении задачи, в правом — конкретные функции, соответ- ствующие данному примеру: /(X) 1 Я(1+*2) у = ч> (*) у = 1 — X3 х = Ф (у) х = Гг1—у Ф'(у) • — 1 3^(1 -у)’ 1Ф'(У)1 1 3^(1-у)» £(У)=/(Ф(У))1Ф'(У)1 Зя(1 +^(1 - у)2) 1(1 - У)’
266 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ (ГЛ. 12 12.2. Закон распределения линейной функции от аргумента, подчиненного нормальному закону Пусть случайная величина X подчинена нормальному закону с плотностью: (х-я,хХ = 4 - <12:2» а случайная величина Y связана с нею линейной функциональной за- висимостью: Y = aX-\~bt (12.2.2) где а и Ь — неслучайные коэффициенты. Требуется найти закон распределения величины Y. Оформим решение в виде двух столбцов, аналогично примеру предыдущего п°: /(*) у = <р(х) 1 а£ _____£ X Х = ф(у) Ф'(У) If (У)1 у — b а 1 а 1 г(у)=/(ф(у))|ф' (у) I 2<Л 1 Преобразуя выражение g(y), имеем: |y-(amx+»)]» 1 2 I a IV =---------=- е х 1« 1°хК2я а это есть не что иное, как нормальный закон с параметрами: а у = атх -f- Ъ, | су = | а | <зх. J (12.2.3) Если перейти от средних квадратических отклонений к пропор- циональным им вероятным отклонениям, получим: Еу = \а\Ех. (12.2.4)
12.3] ЗАКОН РАСПРЕД. НЕМОНОТОННОЙ ФУНКЦИИ ОДНОГО АРГУМЕНТА 267 Таким образом мы убедились, что линейная функция от аргу- мента, подчиненного нормальному закону, также подчинена нормальному закону. Чтобы найти центр рассеивания этого закона, нужно в выражение линейной функции вместо аргумента подставить его центр рассеивания. Чтобы найти среднее квадратическое откло- нение этого закона, нужно среднее квадратическое отклонение аргу- мента умножить на модуль коэффициента при аргументе в выражении линейной функции. То же правило справедливо и для вероятных отклонений. 12.3. Закон распределения немонотонной функции одного случайного аргумента Имеется непрерывная случайная величина X с плотностью распре- деления /(х); другая величина Y связана с X функциональной за- висимостью: к = ?(Х), причем функция у=ср(х) на участке (а, Ь) возможных значений аргумента не монотонна (рис. 12.3.1). Найдем функцию распределения G(y) величины Y. Для этого снова проведем прямую АВ, параллельную оси абсцисс, на расстоянии у от нее и выделим те участки кривой у = ср(х), на которых выпол- няется условие Y < у. Пусть этим участкам соответствуют участки оси абсцисс: At(y), Д2(у), ••• Событие Y < у равносильно попаданию случайной величины X на один из участков Дх (у), Д2 (у), ... — безразлично, на какой именно. Поэтому О(у) = Р(Г<у) = Р((Хс:Д1(у))+(^<=Д2(У)) + ••.) = =2^(^<=^(y))=2 l l ^(y)
268 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 12 Таким образом, для функции распределения величины Y = y(X) имеем формулу: о (У) = 2 f/<x)dx- (12.3.1) 1 Границы интервалов ДДу) зависят от у и при заданном конкрет- ном виде функции у = <р(х) могут быть выражены как явные функ- ции у. Дифференцируя О-(у) по величине у, входящей в пределы интегралов, получим плотность распределения величины Y: g(y)=O'(y). (12.3.2) Пример. Величина X подчи- нена закону равномерной плотности те те на участке от — у до Рис. 12.3.2. /(*) = 1 при |Х|<5; О при I Ж| > у. Найти закон распределения величины r=cosX. Решение. Строим график функции у = cos х (рис. 12.3.2). Очевидно». = и в интервале (а, Ь) функция у = cosх немонотонна. Применяя формулу (12.3.1), имеем: к Х\ 2 О(у) = f /(x)dx + f f(x)dx. К Л» Выразим пределы xx и x2 через у: Х| = - arccos у; х2 ® arccos у. Отсюда к - arccos у 2 G(y) = J f(x)dx+ f f(x)dx. (12.3.3) « arccos у ”2 Чтобы найти плотность &(у), не будем вычислять интегралы в фор- муле (12.3.3), а непосредственно продифференцируем это выражение по пере- менной у, входящей в пределы интегралов: S (У) = G' (У) = / (— arccos у) тт===- + f (arccos у) —=L=. Fl—У2 /1 —У2
12.4] ЗАКОН РАСПРЕДЕЛЕНИЯ ФУНКЦИИ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН 269 Имея в виду, что f (х) = ~ , получим; z ч 2 1 (12.3.4) « /1 —уг Указывая для У закон распределения (12.3.4), следует оговорить, что он действителен лишь в пределах от 0 до 1, т. е. в тех пределах, в которых меняется У = cos X v ’ к при аргументе А, заключенном между — И "2 ‘ Вне этих пределов плотность g (у) равна нулю. График функции g(y) дан на рис. 12.3.3. При у = 1 кривая g (у) имеет ветвь, уходящую на бесконечность. 12.4. Закон распределения функции двух случайных величин д(у> Рис. 12.3.3. Задача определения закона распределения функции нескольких случайных аргументов значительно сложнее аналогичной задачи для функции одного аргумента. Здесь мы изложим общий метод решений этой задачи для наиболее простого случая функции двух аргументов. Имеется система двух непрерывных случайных ве- личин (X, У) с плотностью распределения f(x, у). Слу- чайная величина Z связана с X и У функциональной зависимостью: И 2=<р(х,у) Рис. 12.4.1. Z = <p(X, Г). в случае одного аргумента. Функция не кривой, а поверхностью (рис. 12.4.1). Найдем функцию распределения величины Z: G(z) = P(Z <z) = P(<p(X, Y)<z). Требуется найти закон распределения величины Z. Для решения задачи вос- пользуемся геометрической интерпретацией, аналогичной той, которую мы применяли 2=cp(x, у) изобразится уже (12.4.1)
270 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ (ГЛ. 12 Проведем плоскость Q, параллельную плоскости хОу, на расстоя- нии z от нее. Эта плоскость пересечет поверхность г = ср(х, у) по некоторой кривой К *). Спроектируем кривую К на плоскость хОу. Эта проекция, уравнение которой ср(х, y) = z, разделит плоскость xQy на две области; для одной из них высота поверхности над пло- скостью хОу будет меньше, а для другой — больше z. Обозначим D ту область, для которой эта высота меньше z. Чтобы выполнялось неравенство (12.4.1), случайная точка (X, У), очевидно, должна по- пасть в область D; следовательно, О(г) = Р((Х, Г)сР) = / f f(x. y)dxdy. (12.4.2) (D) В выражение (12.4.2) величина z входит неявно, через пределы интегрирования. Дифференцируя G(z) по z, получим плотность распределения величины Z: g(z) = G'(z). Зная конкретный вид функции z—<f(x, у), можно выразить пре- делы интегрирования через z и написать выражение g(z) в явном виде. Для того чтобы найти закон распределения функции двух аргу- ментов, нет необходимости каждый раз строить поверхность 2=<p(x, у), подобно тому, как это сделано на рис. 12.4.1, и пе- ресекать ее плоскостью, парал- лельной хОу. На практике доста- точно построить на плоскости хОу кривую, уравнение которой 2г = <р(х, у), отдать себе отчет в том, по какую сторону этой кривой Z < z, а по какую Z > zt и интегрировать по области £), для которой Z < z. Пример. Система величин (X, К) подчинена закону распределения с плотностью f (х, у). Величина Z есть произведение величин X, К: z = xr. Рис. 12.4.2, Найти плотность распределения ве- личины Z. Решение. Зададимся некоторым значением г и построим на пло- скости хОу кривую, уравнение которой ху = z (рис. 12.4.2). Это гипербола, асимптоты которой совпадают с осями координат. Область D на рис. 12.4.2 заштрихована. J) На нашем чертеже кривая К замкнута; вообще она может быть и не- замкнутой, а может состоять и из нескольких ветвей.
12.5] ЗАКОН РАСПРЕДЕЛЕНИЯ СУММЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН 271 Функция распределения величины Z имеет вид: О оо оо X G(z) = f f f (х, у) dx dy = J J / (x, y)dxdy + j* j f (x, y) dx dy. (D) —oo z 0 —oo Дифференцируя это выражение по г, имеем: О оо — оо О (12.4.3) 12.5. Закон распределения суммы двух случайных величин. Композиция законов распределения Воспользуемся изложенным выше общим методом для решения одной важной для практики частной задачи, а именно для нахожде- ния закона распределения суммы двух случайных величин. Имеется система двух случай- ных величин (X, К) с плотностью распределения /(х, у). Рассмот- рим* сумму случайных величин X и Y: Z = X-\-Y, и найдем закон распределения величины Z. Для этого построим на плоскости хОу линию, уравнение которой x4-y = z (рис. 12.5.1). Это — прямая, отсекающая на осях отрезки, равные z. Прямая х4~у = г делит плоскость хОу на две части; правее и выше ее Рис. 12.5.L X Y > z\ левее и ниже X 4“ 4“ Y < z. Область D в данном случае — левая нижняя часть пло- скости хОу, заштрихованная на рис. 12.5.1. Согласно формуле (12.4.2) имеем: о (z) = J J f (х, у) dx d (О) ОО Z—X оо = f f f(x> y)dxdy = J — OO —oo —oo z-x J f{x, y)dy — OO dx.
272 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 12 Дифференцируя это выражение по переменной z, входящей в верх- ний предел внутреннего интеграла, получим: g(*) = J /(X, z — x)dx. (12.5.Q — ОО Это — общая формула для плотности распределения суммы двух случайных величин. Из соображений симметричности задачи относительно X и Y можно написать другой вариант той же формулы: °° £(*)== f f(z- у. y)dy, (12.5.2) —оо который равносилен первому и может применяться вместо него. Особое практическое значение имеет случай, когда складываемые случайные величины (X, К) независимы. Тогда говорят о компози- ции законов распределения. Произвести композицию двух законов распределения это значит найти закон распределения суммы двух независимых случайных вели- чин, подчиненных этим законам распределения. Выведем формулу для композиции двух законов распределения. Имеются две независимые случайные величины X и Yt подчиненные соответственно законам распределения /г(х) и требуется про- извести композицию этих законов, т. е. найти плотность распределе- ния величины Z = a¥4-K. Так как величины X и Y независимы, то /(X. У) = /1(Х)/2(У). и формулы (12.5.1) и (12.5.2) принимают вид: СО g(z) = f A(x)f2(z-x)dx. (12.5.3) —CO CO £(•?) = J fi<z — y)f2{y)dy. (12.5.4) —CO Для обозначения композиции законов распределения часто при- меняют символическую запись: где ♦ — символ композиции.
12.5] ЗАКОН РАСПРЕДЕЛЕНИЯ СУММЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН 273 Формулы (12.5.3) и (12.5.4) для композиции законов распределе- ния удобны только тогда, когда законы распределения и /2(у) (или, по крайней мере, один из них) заданы одной формулой на всем диапазоне значений аргумента (от —оо до оо). Если же оба закона заданы на различных участках различными уравнениями (на- пример, два закона равномерной плотности), то удобнее пользоваться непосредственно общим методом, изложенным в п° 12.4, т. е. вы- числить функцию распределения G (z) величины Z — X Y и про- дифференцировать эту функцию. Пример 1. Составить композицию нормального закона: и закона равномерной плотности: /,(У) = ПРИ “ < у < ₽• Решение. Применим формулу композиции законов распределения в виде (12.5.4): ? _U-y-m)» ₽ _[У-(г-т)1» / Ч 1/1 2а2 1/1 2а2 , z10KK4 S (*) = о--- I —7= е dy — и------ / —е dy. (12.5.5) s ₽ — »«/ ₽ —«</ о/2я а а Подынтегральная функция в выражении (12.5.5) есть не что иное, как нор- мальный закон с центром рассеивания z— т и средним квадратическим отклонением а, а интеграл в выражении (12.5.5) есть вероятность попадания случайной величины, подчиненной этому закону, на участок от а до р; сле- довательно, g&) ______1 Глч./'Р —(*~"О \ л4а —(г —"О — р_а [ а ) \ ° Графики законов Л (х), /2(у) и g(z) при а =— 2, р = 2, /и==0, ч=1 приведены на рис. 12.5.2.
274 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 12 Пример 2. Составить композицию двух законов равномерной плот- ности, заданных на одном и том же участке (0, 1): /1 (*) == 1 при 0 < х < 1, /2 (У) = 1 при 0 < у < 1. Решение. Так как законы fi(x) и /2(у) заданы только на опреде- ленных участках осей Ох и Оу, для решения этой задачи удобнее восполь- зоваться не формулами (12.5.3) и (12.5.4), а общим методом, изложенным в п° 12.4, и найти функцию распределения G (г) величины Z »X К. Рассмотрим случайную точку (X, У) на плоскости хОу. Область ее воз- можных положении — квадрат К со стороной, равной 1 (рис. 12.5.3). Имеем: G (г) = J* J / (х, у) dx dy = J* J* dx dy, (O) (D) где область D — часть квадрата R, лежащая левее и ниже прямой х 4- у = г. Очевидно, G^=sD, где SD — площадь области D. Составим выражение для площади области D при различных значе- ниях г, пользуясь рис. 12.5.3 и 12.5.4: 1) при z < О G (г) = 0; 2) при 0 < z < 1 G(z) =Л-; 3) при l<z<2G(z) = l~— 4) при z > 2 G (z) = 1. Дифференцируя эти выражения, получим: 1) при Z < :0 ^(^> = 0; 2) при 0 < ;г<1 В Ю = ъ 3) при 1 « <z<2 g(z) = 2 — z; 4) при z > 2 ^(г) = 0. . График закона распределения g(z) дан на рис. 12.5.5? Такой закон носит название «закона Симпсона» или «закона треугольника».
12.6] КОМПОЗИЦИЯ НОРМАЛЬНЫХ ЗАКОНОВ 275 12.6. Композиция нормальных законов Рассмотрим две независимые случайные величины X и Г, подчи- нённые нормальным законам: (х~тхУ /1(х) = —±==е , (12.6.1) (у~ту)а ’ <12“> Требуется произвести композицию этих законов, т. е. найти закон распределения величины: Z = X+Y. Применим общую формулу (12.5.3) для композиции законов рас- пределения: 00 £(-*) = f f1(x)fi(z — x)dx = (х~тхУ (г~х~туУ е х у dx. (12.6.3) Если раскрыть скобки в показателе степени подынтегральной функции и привести подобные члены, получим: где со £(£) = •-—j /* е-Аг’+2Вл-С dx, — ОО = 1<Н. 2 ' тх , (г~ту)2 ~ 2°х "t" 2О2 Подставляя эти выражения в уже встречавшуюся нам формулу (9.1.3): ? лт АС~В‘ J e-A^±2Bx-cdx = y A t (12.6.4) — 00
276 ЗАКОНЫ РАСПРЕДЕЛМЙИЯ ФУНКЦИЙ СЛУЧАЙНЫХ * АРГУМЕНТОВ (ГЛ. 12 после преобразований получим: *(*) = 2(о'+°2у) ’ (12-6-5> У4+°у У2п а это есть не что иное, как нормальный закон с центром рассеи- вания mz~mx-\-my (12.6.6) и средним квадратическим отклонением = У <%+<%• (12.6.7) К тому же выводу можно прийти значительно проще с помощью следующих качественных рассуждений. Не раскрывая скобок и не производя преобразований в подынте- гральной функции (12.6.3), сразу приходим к выводу, что показатель степени есть квадратный трехчлен относительно х вида ср (х) = — Ах2 + 2Вх — С, где в коэффициент А величина z не входит совсем, в коэффициент В входит в первой степени, а в коэффициент С — в квадрате. Имея это в виду и применяя формулу (12.6.4), приходим к заключению, что g(z) есть показательная функция, показатель степени которой — квадратный трехчлен относительно zt а плотность распределения такого вида соответствует нормальному закону. Таким образом, мы приходим к чисто качественному выводу: закон распределения вели- чины z должен быть нормальным. Чтобы найти параметры этого закона — mz и аг — воспользуемся теоремой сложения математических ожиданий и теоремой сложения дисперсий. По теореме сложения математических ожиданий mz — тх + тг (12.6.8) По теореме сложения дисперсий D. = DX4-Dy, или. + (12.6.9) откуда следует формула (12.6.7). Переходя от средних квадратических отклонений к пропорцио- нальным им вероятным отклонениям, получим: = (12.6.10)
12.61 КОМПОЗИЦИЯ НОРМАЛЬНЫХ ЗАКОНОВ 277 Таким образом, мы пришли к следующему правилу: при компо- зиции нормальных законов получается снова нормальный за- кон, причем математические ожидания и дисперсии (или квад- раты вероятных отклонений) суммируются. Правило композиции нормальных законов может быть обобщено на случай произвольного числа независимых случайных величин. Если имеется п независимых случайных величин: *2.....хп, подчиненных нормальным законам с центрами рассеивания тх . тХп.............................тх 1 2 Лп и средними квадратическими отклонениями Or , Он , •••, Он , *1 л2» лл» то величина i = l также подчинена нормальному закону с параметрами л», = Длц, (12.6.11) п . (12.6.12) • /=1 I Вместо формулы (12.6.12) можно применять равносильную ей формулу: 4=2^/ (12.6.13) Х=1 1 Если система случайных величин (Xt Y) распределена по нор- мальному закону, но величины X, Y зависимы, то нетрудно доказать, так же как раньше, исходя из общей формулы (12.5.1), что закон распределения величины Z=X-\-Y есть тоже нормальный закон. Центры рассеивания по-прежнему скла- дываются алгебраически, но для средних квадратических отклонений правило становится более сложным: e’ = el + ey+2rVr (12.6.14) где г — коэффициент корреляции величин X й Y.
278 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ, 12 При сложении нескольких зависимых случайных величин, подчи- ненных в своей совокупности нормальному закону, закон распреде- ления суммы также оказывается нормальным с параметрами mz — 2 (12.6.15) п + 2 S , (12.6.16) или в вероятных отклонениях « п ^ = 2^4-22 rVE*F*j, (12.6.17) /=1 * KJ где rZy—коэффициент корреляции величин Xit Хр а суммирование распространяется на все различные попарные комбинации величин Х2..... Хп. Мы убедились в весьма важном свойстве нормального закона: при композиции нормальных законов получается снова нормальный закон. Это — так называемое «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов этого типа получается снова закон того же типа1). Выше мы показали, что нормальный закон является устойчивым. Свойством устойчивости обладают весьма немногие законы распределения. В предыдущем п° (пример 2) мы убедились, что, например, закон равномерной плот- ности неустойчив: при композиции двух законов равномерной плот- ности на участках от 0 до 1 мы получили закон Симпсона. Устойчивость нормального зако- Z55X на—одно из существенных условий да _ его широкого распространения на практике. Однако свойством устой- чивости, кроме нормального, обла- дают и некоторые другие законы — распределения. Особенностью нор- мального закона является то, что Рис. 12.6.1. при композиции достаточно боль- шого числа практически произволь- ных законов распределения суммарный закон оказывается сколь угодно близок к нормальному1 вне зависимости от того, каковы были законы распределения слагаемых. Это можно проиллюстрировать, например, составляя композицию трех законов равномерной плотности на уча* стках от 0 до 1. Получающийся при этом закон распределения g(z) изображен на рис. 12.6.1. Как видно из чертежа, график функции g(z) весьма напоминает график нормального закона.- *) Под «законами одного и того же типа» мы подразумеваем законы, раз- личающиеся только масштабами по осям и началом отсчета по оси абсцисс.
12.7] ФУНКЦИИ ОТ НОРМАЛЬНО РАСПРЕДЕЛЕННЫХ АРГУМЕНТОВ 279 12.7. Линейные функции от нормально распределенных аргументов Дана система случайных величин (Xv Х2, ...» Хп), подчиненная нормальному закону распределения (или, короче, «распределенная нормально»); случайная величина У представляет, собой линейную функцию этих величин: У = + (12.7.1) /=1 Требуется найти закон распределения величины У. Нетрудно убедиться, что это нормальный закон. Действительно, величина У представляет собой сумму линейных функций, каждая из которых зависит от одного нормально распределенного аргумента X, а выше было доказано, что такая линейная функция также распре- делена нормально. Складывая несколько нормально распределенных случайных величин, мы снова получим величину, распределенную нормально. Остается найти параметры величины У — центр рассеивания ту и среднее квадратическое отклонение ау. Применяя теоремы о мате- матическом ожидании и дисперсии линейной функции, получим: п (12.7.2) "? = 1“К,+ 2,2<12-7-3> где rZy—коэффициент корреляции величин Х^ Xj. В случае, когда величины (Хр Х2, ...» Хп) некоррелированы (а значит, при нормальном законе, и независимы), формула (12.7.3) принимает вид: п ’ (12-7-4) Средние квадратические отклонения в формулах (12.7.3) и (12.7.4) могут быть заменены пропорциональными им вероятными отклонениями. На практике часто встречается случай, когда законы распределе- ния случайных величин Xv Х2, ..., Хп, входящих в формулу (12.7.1), в точности не известны, а известны только их числовые характери- стики: математические ожидания и дисперсии. Если при этом вели- чины Xv Х2, ...» Хп независимы, а их число п достаточно велико, то, как правило, можно утверждать, что, безотносительно' к виду законов распределения величин Xit закон распределения величины У
280 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУхМЕНТОВ [ГЛ. !2 близок к нормальному. На практике для получения закона распре* деления, который приближенно может быть принят за нормальный, обычно оказывается достаточным наличие 5-ь 10 слагаемых в выра- жении (12.7.1). Следует оговориться, что это не относится к слу- чаю, когда дисперсия одного из слагаемых в формуле (12.7.1) пода- вляюще велика по сравнению со всеми другими; предполагается, что случайные слагаемые в сумме (12.7.1) по своему рассеиванию имеют примерно один и тот же порядок. Если эти условия соблюдены, то для величины Y может быть приближенно принят нормальный закон с параметрами, определяемыми формулами (12.7.2) и (12.7.4). Очевидно, все вышеприведенные соображения о законе распре- деления линейной функции справедливы (разумеется, приближенно) и для того случая, когда функция не является в точности линейной, но может быть линеаризована. 12.8. Композиция нормальных законов на плоскости Пусть в системе координат хОу заданы два независимых слу- чайных вектора: V\ с составляющими (А\, Kj) и V2 с составляющими (Х2, ^)- Допустим, что каждый из них распределен нормально, причем параметры пер- вого вектора равны /Пхр мУ1, аХ1» оУ1, гХ1у,» а параметры второго — Мх2. Му,, aXi, Сур гх,ур Требуется определить за- кон распределения случай- ного вектора V = У^У2 (рис. 12.8.1), составляю- щие которого равны: х^х^х» Y = Yt + Y2. Не представляет трудности качественно доказать (аналогично тому, как мы это сделали для случая композиции двух нормальных зако- нов в п° 12.6), что вектор V также распределен нормально. Мы при- мем это положение без специального доказательства. -> Определим параметры закона распределения вектора V. По теореме сложения математических ожиданий mx — mXl + mX}, ту — тУ1 + Оту,. (12.8.1)
12.81 КОМПОЗИЦИЯ НОРМАЛЬНЫХ ЗАКОНОВ НА плоскости 281 По теореме сложения дисперсия О2=О2 +<?, 1 X Хг i о2 = а2 4~ °2 I У У1~ уг J По теореме сложения корреляционных моментов Kxy = Кху, 4- Кхгу2- или. переходя к коэффициентам корреляции, (12.8.2) . откуда Гхуах°у — fxy^xfly, “I- fxjyJ^xPw r - rM,+rM " т+’Ж+о' (12.8.3) Таким образом, задача композиции нормальных законов на пло- скости решается формулами (12.8.1), (12.8.2) и (12.8.3). Эти формулы выведены для того случая, когда оба исходных нормальных закона (для векторов и V2) заданы в одной и той же координатной системе хОу. На практике иногда встречается случай, когда нужно произвести композицию двух нормальных законов на плоскости, каждый из которых задан в своей системе координат, а именно в своих главных осях рассеивания. Дадим способ компо- зиции нормальных законов для этого случая. Пусть на плоскости хОу (рис. 12.8.2) даны два нормально рас- пределенных некоррелированных случайных вектора и V2. Каждый из векторов характеризуется своим единичным эллипсом рассеивания: вектор V\—эллипсом с центром в точке тУ1 с полуосями из которых первая образует с осью Ох угол 04; аналогичные
векторам получим: (12.8.4) и V2 в (12.8.5) 282 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИИ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 12 характеристики для вектора V2 будут*. mXv myv о^, 0^, Требуется найти параметры единичного эллипса рассеивания» характеризующего вектор V = V\ V2. Обозначим их mr, mu, 0r, 0U> a. л У л У Так как положение центра рассеивания не зависит от выбора системы координат, очевидно, по-прежнему будут справедливы соот- ношения: mx = mXl + mXi, Для того чтобы найти элементы корреляционной матрицы век- тора V, спроектируем случайные точки, соответствующие Vj и V2, на оси Ох и Оу. Пользуясь формулой (10.3.3), о2 = a? cos2 а. -|- о2 sin2 а1е <$, = °tsin2 + °l = OlCOs2a2 + O1sSin2a2* о2 = o2 sin2 a,+o2 cos2 a,. У1 «8 * ’ Коэффициенты корреляции составляющих векторов Vx системе координат хОу найдем из соотношения (9.2.2): Гх^~ 5ГГ * *2 Уз Далее задача композиции нормальных законов на плоскости сво- дится к предыдущей. Зная ох, 0У, г-гу, можно найти углы, составлен- ные осями суммарного эллипса с осью абсцисс, по формуле (9.2.2): tg2a = 27У°ха2-1). (12.8.6) д -- а х у и главные средние квадратические отклонения — по формулам (9.2.4): о£ = Vо2 cos2 a -|- г a a sin 2a -|- о2 sin2 a, *_________У______________I_____ (12.8.7) «з^ = у a2 sin2 a — гХуах*у sin 2a -j- cos2 a. *) Так как тангенс имеет период тс, то значения а, определяемые по формуле (12.8.6), могут различаться на ~, что соответствует двум главным осям эллипса.
12.8] композиция НОРМАЛЬНЫХ ЗАКОНОВ НА плоскости 283 Последние соотношения справедливы не только для средних квадратических отклонений, но и для пропорциональных им вероят- ных отклонений: Е( — УЕ2 cos2 а + г Е Е sin 2а + sin2 а, ч г л лу л у у Е =‘VrE2sin2a — г ЕЕ sin2а-f-E2cos2а. г х ху х у у (12.8.8) Перейдем к композиции произвольного числа нормальных законов на плоскости. С наиболее простым случаем композиции произвольного числа нормальных законов мы встречаемся тогда, когда главные оси рас- сеивания для всех законов, подлежащих комйозиции, параллельны друг другу. Тогда, выбирая координатные оси параллельно этим главным осям рассеивания, мы будем иметь дело с системами неза- висимых случайных величин, и композиция нормальных законов вы- полняется по простым формулам: п п «у = 2 «у : у 1=1 У1 где ох, ау, аУ/—главные средние квадратические отклонения соответствующих законов. В случае, когда направления главных осей не. совпадают, можно составить композицию нескольких нормальных законов тем же мето- дом, которым мы пользовались выше для двух законов, т. е. проек- тируя складываемые случайные векторы на оси одной и той же си- стемы координат. На практике часто встречаются случаи, когда в числе законов, подлежащих композиции, встречаются так называемые «вырожденные» законы, т. е. законы, характеризующиеся эллипсом рассеивания, имею- щим только одну полуось (другая равна нулю). Такие «вырожден- ные» законы дают рассеивание только в одном направлении. При композиции таких законов нужно поступать так же, как при ком- позиции обычных законов, полагая некоторые параметры (средние квадратические или вероятные отклонения) равными нулю. Пример 1. Ошибка бомбометания вызвана совместным действием следующих факторов: 1) техническое рассеивание бомб; 2) неточность прицеливания по дальности; 3) неточная наводка в боковом направлении. Все эти факторы независимы. Техническое рассеивание бомб дает единич- ный эллипс рассеивания в виде круга радиусом 20 м. Ошибка прицеливания
284 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 12 по дальности действует только в направлении полета и имеет среднее квад-* ратическое отклонение 40 ж; центр рассеивания сдвинут вперед по полету на 5 ж. Ошибка боковой наводки действует только в направлении, перпен- дикулярном к полету, и имеет среднее квадратическое отклонение 30 ж; центр рассеивания смещен вправо на 10 ж. Найти параметры нормального закона, которому подчинена суммарная ошибка бомбометания, вызванная сов- местным действием всех перечисленных факторов. Решение. Так как главные оси всех перечисленных в задаче эллип- сов (из которых второй и третий вырождены) параллельны, то можно при- менить правило композиции нормальных законов с независимыми составляю- щими (формулы (12.8.9)). Выбирая ось Оу по направлению полета, ось Ох — перпендикулярно к нему, имеем: тх = 10, ту == 5, о2 = 202 + 302 == 1300, «х - 36,1 (м), а2 =202-}-402 = 2000, ау = 44,7(ж). Пример 2. Производится воздушная стрельба с самолета по само- лету; рассеивание точек попадания рассматривается на вертикальной пло- скости, перпендикулярной к направлению стрельбы. Причины рассеивания точек попадания состоят в следующем: 1) ошибки, связанные с неоднородностью баллистики снарядов и коле- баниями установки; 2) ошибки наводки; 3) ошибки, вызванные неточностью определения дальности; 4) инструментальные ошибки прицела. Главные оси рассеивания, вызванного первой причиной, расположены гори- зонтально и вертикально, и главные средние квадратические отклонения равны соответственно 1 и 2 ж; ошибка наводки дает круговое рассеивание со средним квадратическим отклонением 3 ж; ошибка, вызванная неточно- стью определения дальности, дает рассеивание только вдоль оси, наклонен- ной к горизонту под углом 30°, со сис. о. 4 ж; инструментальные ошибки при- цела дают круговое’ рассеивание со с. к. о. 2 ж. Систематические ошибки равны нулю. Требуется найти параметры закона распределения суммарной ошибки, вызванной всеми перечисленными факторами. Решение. Выбираем систему координат с горизонтальной осью Ох и вертикальной Оу. Эти оси являются главными осями рассеивания для всех законов, 1фоме третьего (ошибки вследствие неточности определения даль- ности). Обозначим составляющие каждой ошибки в системе координат хОу соответственно: xlt ri; Х2, Г2; X3, r3; X<, Параметры этих составляющих равны соответственно: ffi тл у, —— 0; Xi У\ Уг Ув У< °г=1; % =2; а =а =3; а =2. Х\ 9 У1 * у2 ’ -м У« Что касается величин и то их мы определяем, проектируя случай- ную точку (Х3, Y3) на оси Ох и Оу по формулам (12.8.4): а2 = 42 cos2 30° = 12; g2# = 42 sin2 30° = 4.
12.8] композиция НОРМАЛЬНЫХ ЗАКОНОВ НА плоскости 285 С Коэффициент корреляции величин (Х3, К3) найдем по формуле (12.8.5) = tg 60° (12-4) = 2/48 что и естественно, так как рассеивание сосредоточено на одной прямой и, следовательно, величины Х3 и К3 зависимы функционально. Применяя теорему сложения дисперсий, имеем: 4=4.+4,+4,+4,=26: 5-09 (*); 4=4>+4,+4»+4<=21: °у=4158 м Коэффициент корреляции гху найдем, применяя теорему сложения кор- реляционных моментов: ^ = ^.+^+^4-^ =о+о+Д^+о, откуда _ 4ГЗ-2р> _ гху— 2р2 • 5,09 • 4,58 ~ ’ Определим угол а, который составляет с осью первая, главная ось рас- сеивания: tr2^2^.5,09>4,58_ S 5,092 —4,58* А.’Яи, 2а»69°30'; а«34°45'. По формулам (12.8.8) имеем: cos2a + г^х(зу sin 2a + a2 sin2 a = 5,55 (m)\ % = Vsin2 a — rxyaxay sin 2a + cos2a = 4,22 (ж).
ГЛАВА 13 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 13.1. Закон больших чисел и центральная предельная теорема В начале курса мы уже говорили о том, что математические законы теории вероятностей получены абстрагированием реальных статистических закономерностей, свойственных массовым случайным явлениям. Наличие этих закономерностей связано именно с массо- востью явлений, то есть с большим числом выполняемых однородных опытов или с большим числом складывающихся случайных воздей- ствий, порождающих в своей совокупности случайную величину, под- чиненную вполне определенному закону. Свойство устойчивости мас- совых случайных явлений известно человечеству еще с глубокой древности. В какой бы области оно ни проявлялось, суть его сводится к следующему: конкретные особенности каждого отдельного случай- ного явления почти не сказываются на среднем результате массы таких явлений; случайные отклонения от среднего, неизбежные в каж- дом отдельном явлении, в массе взаимно погашаются, нивелируются, выравниваются. Именно эта устойчивость средних и пред- ставляет собой физическое содержание «закона больших чисел», пони- маемого в широком смысле слова: при очень большом числе случай- ных явлений средний их результат практически перестает быть случай- ным и может быть предсказан с большой степенью определенности. В узком смысле слова под «законом больших чисел» в теории - вероятностей понимается ряд математических теорем* в каждой из которых для тех или иных условий устанавливается факт приближе- ния средних характеристик большого числа опытов к некоторым определенным постоянным. В п° 2.3 мы уже формулировали простейшую из этих теорем — теорему Я. Бернулли. Она утверждает, что при большом числе опы- тов частота события приближается (точнее — сходится по вероятно- сти) к вероятности этого события. С другими, более общими фор- мами закона больших чисел мы познакомимся в данной главе. Все они устанавливают факт и условия сходимости по вероятности тех или иных случайных величин к постоянным, не случайным величинам.
13.2] НЕРАВЕНСТВО ЧЕБЫШЕВА 287 Закон больших чисел играет важную роль в практических приме- нениях теории вероятностей. Свойство случайных величин при опре- деленных условиях вести себя практически как не случайные позволяет уверенно оперировать с этими величинами, предсказывать резуль- таты массовых случайных явлений почти с полной определенностью. Возможности таких предсказаний в области массовых случайных явлений еще больше расширяются наличием другой группы предель- ных теорем, касающихся уже не предельных значений случайных величин, а предельных законов распределения. Речь идет о группе теорем, известных под названием «центральной’предельной теоремы». Мы уже говорили о том, что при суммировании достаточно большого числа случайных величин закон распределения суммы неограниченно приближается к нормальному при соблюдении некоторых условий. Эти условия, которые математически можно формулировать различным образом — в более или менее общем виде, — по существу сводятся к требованию, чтобы влияние на сумму отдельных слагаемых было равномерно малым, т. е. чтобы в состав суммы не входили члены, явно преобладающие над совокупностью остальных по,своему влия- нию на рассеивание суммы. Различные формы центральной предельной теоремы различаются между собой теми условиями, для которых устанавливается это предельное свойство суммы случайных величин. Различные формы закона больших чисел вместе с различными формами центральной предельной теоремы образуют совокупность так называемых предельных теорем теории вероятностей. Предель- ные теоремы дают возможность не только осуществлять научные прогнозы в J области случайных явлений, но и оценивать точность этих прогнозов. В данной главе мы рассмотрим только некоторые, наиболее про- стые формы предельных теорем. Сначала будут рассмотрены теоремы, относящиеся к группе «закона больших чисел», затем—теоремы, относящиеся к группе «центральной предельной теоремы».' 13.2. Неравенство Чебышева В качестве леммы, необходимой для доказательства теорем, отно- сящихся к группе «закона больших чисел», мы докажем одно весьма общее неравенство, известное под названием неравенства Чебышева. Пусть имеется случайная величина X с математическим ожида- нием тх и дисперсией Dx. Неравенство Чебышева утверждает, что, каково бы ни было положительное число а, вероятность того, что величина X отклонится от своего математического ожидания не меньше Dr чем на а, ограничена сверху величиной : Р(И-тх|>а)<^.. (13.2.1)
288 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ. 18 Доказательство. 1. Пусть величина X прерывная, с рядом распределения II *1 I *2 I • • • I */> aIIa 1а1 \Рп ’ Изобразим возможные значения величины X и ее математическое ожидание тх в виде точек на числовой оси Ох (рис. 13.2.1). Зададимся некоторым-значением а>0 и вычислим вероятность того, что величина X отклонится от своего математического ожида- ния не меньше чем на а: Р(\Х — mj>a). (13.2.2) Для этого отложим от точки тх вправо и влево по отрезку дли- ной а; получим отрезок АВ. Вероятность (13.2.2) есть не что иное, как вероятность того, что a т a случайная точка X попадет —। f> " «Tlf«« • не внутрь отрезка АВ> а О * х* х? а 8 х9 вовне его: Рис. 13.2.1. ^(1^ — ™х\>*) = ; — Р^ХфАВ)1). Для того чтобы найти эту вероятность, нужно просуммировать вероятности всех тех значений которые лежат вне отрезка АВ. Это мы запишем следующим образом: P(|X-mJ>a)= 2 Pl. (13.2.3) |xrmx|>a где запись |xf — под знаком суммы означает, что суммиро- вание распространяется на все те значения Z, для которых точки xt лежат вне отрезка АВ. С другой стороны, напишем выражение дисперсии величины X По определению: • DJC = M[(X-mxf]=^(xi — mx)'iPl = ^i\xl — mx^Pl. (13.2.4) Z=1 Z=1 » Так как все члены суммы (13.2.4) неотрицательны, она может только уменьшиться, если мы. распространим ее не на все значения xi9 а только на некоторые, в частности на те, которые лежат вне отрезка АВ: Dx> 2 \xt-m^Pi. (13.2.5) |xrmr|>« Концы отрезка АВ мы в него не включаем.
13.2] НЕРАВЕНСТВО ЧЕБЫШЕВА 289 Заменим под знаком суммы выражение \xL— тх\ через а. Так как для всех членов суммы |х; — тх|^а, то от такой замены сумма тоже может только уменьшиться; значит, Ож> 2 a2pi = a2 2 Pi- (13.2.6) Но согласно формуле (13.2.3) сумма, стоящая в правой части (13.2.6), • есть не что иное, как вероятность попадания случайной точки вовне отрезка АВ\ следовательно, Dx>a2P(|X-mJ>a), откуда непосредственно вытекает доказываемое неравенство. 2. В случае, когда величина X непрерывна, доказательство про- водится аналогичным образом с заменой вероятностей pt элементом вероятности, а конечных сумм — интегралами. Действительно, Р(|Х — тх\><х) = f f(x)dxl), (13.2.7) |JC- wjr|>e где /(x)— плотность распределения величины X. Далее, имеем: £>х= J(x—mj2/(x)dx= J |х — тж|2/(х)</л> —co —co > J |x— mx\2f(x)dx, \x~tnX I >a где знак |x—mx|>a под интегралом означает, что интегрирова- ние распространяется на внешнюю часть отрезка АВ. Заменяя |а$ — тх\ под знаком интеграла через а, получим: Dx^>a2 J f(x)dx = a2P(j X — mx|>a), |x-mx|>a откуда и вытекает неравенство Чебышева для непрерывных величин. Пример. Дана случайная величина X с математическим ожида- нием тх и дисперсией о2. Оценить сверху вероятность того, что величина X отклонится от своего математического ожидания не меньше чем на Зах. Решение. Полагая в неравенстве Чебышева a = Зож, имеем: *) Знак > заменен знаком >, так как для непрерывной величины вероят* ность точного равенства равна нулю. 19-3015
ИО ПРЕДЕЛЬНЫЕ- ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 13 т. е. вероятность того, что отклонение случайной величины от ее математического ожидания выйдет за пределы трех средних квадра- тических отклонений, не может быть больше Примечание. Неравенство Чебышева дает только верхнюю границу вероятности денного отклонения. Выше этой границы вероятность не может быть ни .цри каком законе распределения. На практике в большинстве, случаев .вероятность того, что величина X выйдет за пределы участка тпх ± Зах, значительно меньше Напри- мер, для нормального закона эта вероятность приблизительно равна 0,003. На практике чаще всего мы имеем дело со случайными величинами, значения которых только крайне редко выходят за пре- делы /нх±3дх. Если закон распределения случайной величины неиз- вестен, а известны только тх и на практике обычно считают отрезок тх ± Зох участком практически возможных значений случайной величины (так называемое «правило трех сигма»). 13.3. Закон больших чисел (теорема Чебышева) В данном пэ мы докажем одну из простейших, но вместе с тем наиболее важных форм закона больших чисел — теорему Чебышева. Эта теорема устаневдивает пвявь между средним арифметическим наблюденных значений случайной величины и ее математическим ожиданием. Предварительно решим следующую вспомогательную задачу. Имеется случайная величина X с математическим ожиданием тх в дисперсией Dx. Над этой величиной производится п независимых опытов и вычисляется среднее арифметическое^ всех наблюденных значений величины X. Требуется найти числовые характеристики этого среднего арифметического — математическое ожидание и диспер- сию— я выяснить как они изменяются с увеличением л. Обозначим: Хх — значение величины X в первом опыте; Хг — значение величины X во втором опыте, и т. д. Очевидно, совокупность величин Xv Х2, .... Хп представляет собой я независимых случайных величин, каждая из которых распре- делена по тому же закону,. что и сама величина X» Рассмотрим среднее арифметическое этих величин: Случайная величина Y есть линейная функция независимых слу- чайных величин Xv Х^ .... Хл. Найдем математическое ожидание
1%3] ЭАКСЖ БОЛЬШИХ ЧЯСВЯ (ФВШЧБЮ чгаяшгэдр 291 и дисперсию этой величины. Согласно правилам пр 10 для определения числовых характеристик линейных функций получим: ту = МI Г] = 4- W =4 ат* = т* /=1 Итак, математическое ожидание величины У не зависит от числа опытов п и равно математическому ожиданию наблюдаемой вели? чины %; что касается дисперсии величины У, то она неограниченно убывает с увеличением числа опытов и при достаточно большом п может быть сделана сколь угодно малой. Мы убеждаемся, что среднее арифметическое есть случайная величина со сколь угодно малой дис- персией и при большом числе опытов ведет себя почти как не случайная. Теорема Чебышева и устанавливает в точной количественной форме это свойство устойчивости среднего арифметического. Она формулируется следующим образом: При достаточно большом числе независимых опытов среднее арифметическое наблюденных значений случайной величины сходится по вероятности к ее математическому ожиданию. Запишем теорему Чебышева в виде формулы. Для этого напомним смысл термина «сходится по вероятности». Говорят, что случайная величина Хп сходится по вероятности к величине а, если при увели- чении п вероятность того, что Хп и а будут сколь угодно близки, неограниченно приближается к единице, а это значит, что при достаточно большом п Р(|Л\ —а|<е)>1 —8, где е, 8 — произвольно малые положительные числа. Запишем в аналогичной форме теорему Чебышева. Она утверждает, п 4 2^/ что при увеличении п среднее арифметическое — сходится по вероятности к тх9 т. е. (13.3.1) Докажем это неравенство.
292 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ. 13 Доказательство. Выше было показано, что величина . п 2*1 Г = -^— п имеет числовые характеристики my = mx; Dy=-^-. Применим к случайной величине Y неравенство Чебышева, полагая а = е: Как бы мало ни было число s, можно взять п таким большим, чтобы выполнялось неравенство где 8 — сколь угодно малое число. Тогда откуда, переходя к противоположному событию, имеем: что и требовалось доказать. 13.4. Обобщенная теорема Чебышева. Теорема Маркова Теорема Чебышева легко может быть обобщена на более слож- ный случай, а именно когда закон распределения случайной вели- чины X от опыта к опыту не остается одним и тем же, а изменяется. Тогда вместо среднего арифметического наблюденных значений одной и той же величины X с постоянными математическим ожиданием и дисперсией мы имеем дело со средним арифметическим п различных случайных величин, с различными математическими ожиданиями и дисперсиями. Оказывается, что и в этом случае при соблюдении некоторых условий среднее арифметическое является устойчивым и сходится по вероятности к определенной неслучайной величине.
13.4) ОБОБЩЕННАЯ ТЕОРЕМА ЧЕБЫШЕВА. ТЕОРЕМА МАРКОВА 293 Обобщенная теорема Чебышева формулируется следующим образом. Если xv х2...хп независимые случайные величины с математическими ожида- ниями тхе тх^ ...» тХп и дисперсиями и если все дисперсии ограничены сверху одним и тем же числом L: DX.<L (Z=l, 2, то при возрастании п среднее арифметическое наблюденных значений величин Xv АГ2* •••» Хп сходится по вероятности к среднему арифметическому их^математических ожиданий1). Запишем эту теорему в виде формулы. Пусть е, 8 — сколь угодно малые положительные числа. Тогда при достаточно большом п п п е > 1 —8. (13.4.1) Доказательство. Рассмотрим величину п Ее математическое ожидание равно: а дисперсия *) То есть разность между тем и другим средним арифметическим сходится по вероятности к нулю.
294 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ. 13 Применим к величине К неравенство Чебышева: Dy ИЛИ п п (13.4.2) Заменим в правой части неравенства (13.4.2) каждую из вели- чин DXl большей величиной А. Тогда неравенство только усилится: Как бы мало ни было е. можно выбрать п настолько большим, чтобы выполнялось неравенство тогда 2^ Х=1 откуда, переходя к противоположному событию, получим доказываемое неравенство (13.4.1). Закон больших чисел может быть распространен и на зависимые случайные величины. Обобщение закона больших чисел на случай зависимых случайных величин принадлежит А. А. Маркову. Теорема Маркова. Если имеются зависимые случайные величины Ху Х2, ..., Хп и если при п-+оо п2 >0, то среднее арифметическое наблюденных значений случайных величин Xv Х2, ..., Хп сходится по вероятности к среднему арифметическому их математических ожиданий. Доказательство. Рассмотрим величину п
ТЕОРЕМА БЕРНУЛЛИ И ПУАССОНА 295 13.5] Очевидно» Применим к величине Y неравенство Чебышева: Dv Так как по условию теоремы при д->оо Оу->0, то при доста- точно большом п P(|r-my|>e)<8, или, переходя к противоположному событию» (п . п 2 Xi 2- -Ч— что и требовалось доказать. 13.5. Следствия закона больших чисел: теоремы Бервулли и Пуассона Известим теорема Я- Бернулли, устанавливающая связь между частотой события и его веровтиостыог может быть доказана как пря- мое следствие закона больших чисел. Пусть производится л независимых опытов, в каждом из которых может появиться или не появиться некоторое событие А, вероятность которого в каждом опыте равна р. Теорема Я. Бернулли утверждает, что при неограниченном увеличении числа опытов п частота события А сходится по вероятности к его вероятности р. Обозначим частоту события А в п опытах через Р* и запишем теорему Я. Бернулли в виде формулы Р(|Р* — р|<в)> 1— 8, (13.5.1) где а. 8—сколь угодно малые положительные числа. Требуется доказать справедливость этой формулы при достаточно большом п. Доказательство. Рассмотрим независимые случайные ве- личины: — число появлений события А в первом опыте; Х2— число появлений события А во втором опыте, и т. д.
296 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ 13 Все эти величины прерывны и имеют один и тот же закон рас- пределения, выражаемый рядом вида: О 1 Я Р где q = 1 — р. Математическое ожидание каждой из величин равно р, а ее дисперсия pq (см. п° 10.3). Частота Р* представляет собой не что иное, как среднее ариф- метическое величин Xv X2t ..., Хпх п уэ* u /=1 п ’ и, согласно закону больших чисел, сходится по вероятности к общему математическому ожиданию этих случайных величин. Отсюда и сле- дует справедливость неравенства (13.5.1). Теорема Я. Бернулли утверждает устойчивость частоты при постоянных условиях опыта. Но при изменяющихся условиях опыта аналогичная устойчивость также существует. Теорема, устанавливаю- щая свойство устойчивости частот при переменных условиях опыта, называется теоремой Пуассона и формулируется следующим образом: Если производится п независимых опытов и вероятность появления события А в l-м опыте равна pi9 то при увеличе- нии п частота события А сходится по вероятности к сред- нему арифметическому вероятностей pt. Теорема Пуассона выводится из обобщенной теоремы Чебышева точно так же, как теорема Бернулли была выведена из закона больших чисел. Теорема Пуассона имеет большое принципиальное значение для практического применения теории вероятностей. Дело в том, что зачастую вероятностные методы применяются для исследования явле- ний, которые в одних и тех же условиях не имеют шансов повто- риться достаточно много раз, но повторяются многократно при весьма разнообразных условиях, причем вероятности интересующих нас собы- тий сильно зависят от этих условий. Например, вероятность пораже- ния цели в воздушном бою существенно зависит от дальности стрельбы, ракурса цели, высоты полета, скорости стреляющего самолета и цели и т. д. Комплекс этих условий слишком многочислен для того, чтобы можно было рассчитывать на многократное осуще- ствление воздушного боя именно в данных фиксированных условиях. И все же, несмотря на это, в данном явлении налицо определенная устойчивость частот, а именно частота поражения цели в реальных воздушных боях, осуществляемых в самых разных условиях, будет
нв1 МАССОВЫЕ СЛУЧАЙНЫЕ ЯВЛЕНИЯ 297 приближаться к средней вероятности поражения цели» харак- терной для данной группы условий. Поэтому те методы организации стрельбы» которые основаны на максимальной вероятности поражения цели, будут оправданы и в данном случае, несмотря на то, что нельзя ожидать подлинной массовости опытов в каждом определен- ном комплексе условий. Аналогичным образом обстоит дело в области опытной проверки вероятностных расчетов. На практике очень часто встречается слу- чай, когда требуется проверить на опыте соответствие вычисленной вероятности какого-либо события А его фактической частоте. Чаще всего это делается для того, чтобы проверить правильность той или иной теоретической схемы, положенной в основу метода вычисления вероятности события. Зачастую при такой экспериментальной про- верке не удается воспроизвести достаточно много раз одни и те же условия опыта. И все же эта проверка может быть осуществлена, если сравнить наблюденную в опыте частоту события не с его вероятностью для фиксированных условий, а со средним ариф- метическим вероятностей, вычисленных для различных условий. 13.6. Массовые случайные явления и центральная предельная теорема В предыдущих п°п° мы рассмотрели различные формы закона больших чисел. Все эти формы, как бы они ни были различны, утверждают одно: факт сходимости по вероятности тех или иных случайных величин к определенным постоянным. Ни в одной из форм закона больших чисел мы не имеем дела с законами распре- деления случайных величин. Предельные законы распределения составляют предмет другой группы теорем — центральной предельной теоремы, которую иногда называют «количественной формой закона больших чисел». Все формы центральной предельной теоремы посвящены устано- влению условий, при которых возникает нормальный закон распреде- ления. Так как эти условия на практике весьма часто выполняются, нормальный закон является самым распространенным из законов рас- пределения, наиболее часто встречающимся в случайных явлениях природы. Он возникает во всех случаях, когда исследуемая слу- чайная величина может быть представлена в виде суммы достаточ- но большого числа независимых (или слабо зависимых) элементар- ных слагаемых, каждое из которых отдельности сравнительно мало влияет на сумму. В теории стрельбы нормальный закон распределения играет особо важную роль, так как в большинстве случаев практики координаты точек попадания и точек разрыва снарядов распределяются по нор- мальному закону. Объяснить это можно на следующем примере.
298 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 13 Пусть производится стрельба по некоторой плоской мишени, с центром которой (точкой прицеливания) связано начало координат. Точка попадания характеризуется двумя случайными величинами: X и Y. Рассмотрим одну из них, например отклонение X точки попадания от цели в направлении оси Ох. Это отклонение вызвано совокупным действием очень большого количества сравнительно малых факторов, как-то: ошибка наводки, ошибка в определении дальности до цели, вибрации орудия и установки при стрельбе, ошибки изготовления снаряда, атмосферные условия и т. д. Каждая из этих причин создает элементарную ошибку — отклонение снаряда аг цели, и координата снаряда X может быть представлена как сумма таких элементарных отклонений: Х = Х} + Х2+ ... (13.6.1) где Xv Х2, ...—отклонения, вызванные отдельными факторами. Так как этих факторов очень много, между собойч они являются в основном независимыми и по влиянию на сумму отдельные слагае- мые можно считать приблизительно равномерно малыми, то налицо условия применимости центральной предельной теоремы, и вели- чина (13.6.1) должна подчиняться закону распределения, близкому к нормальному. * Остановимся несколько подробнее на нашем утверждении о при- близительно равномерно малом влиянии каждого из слагаемых на сумму. Смысл его в том, что среди элементарных ошибок стрельбы нет ни одной резко превалирующей над суммой всех остальных. Действительно, если бы такая ошибка была, нужно думать, что, составляя правила стрельбы или конструируя прицельный прибор, мы постарались бы ликвидировать эту ошибку и учесть заранее самую значительную причину, отклоняющую снаряд от цели. Неучтенные случайные факторы, создающие рассеивание, обычно характерны своей равномерной малостью и отсутствием среди них резко преоб- ладающих. Именно поэтому закон распределения точек попадания снарядов (или закон распределения точек разрыва снарядов при дистанционной стрельбе) обычно принимается нормальным 1). Нормальный закон распределения является доминирующим не только в теории стрельбы, но и во многих других областях, напри- мер в теории ошибок измерения. Именно исходя из теории ошибок измерения нормальный закон и был впервые обоснован Лапласом и Гауссом. Действительно, в большинстве случаев ошибки, возникаю- !) В некоторых случаях стрельбы фактическое распределение точек по- падания на плоскости может сильно отличаться от нормального, например, при стрельбе в резко переменных условиях, когда центр рассеивания и ве- роятное отклонение в процессе стрельбы заметно меняются. Однако в таких случаях мы фактически имеем дело не с законом распределения координат точки попадания при одном выстреле, а со средним из таких законов-для различных выстрелов.
13.7] ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ 299 щие при измерении тех или иных физических величин, распреде- ляются именно по нормальному закону; причина этого в том, что такие ошибки, как правило, складываются из многочисленных незави- симых элементарных ошибок, порождаемых различными причинами. Долгое время нормальный закон считался единственным и универ- сальным законом ошибок. В настоящее время взгляд на нормальный закон как на единственный и универсальный должен быть пересмотрен (опыт показывает, что в ряде процессов измерения и производства наблюдаются законы распределения, .отличные от нормального), но все же нормальный закон остается самым распространенным и самым важным для практики законом ошибок. 13.7. Характеристические функции Одна из наиболее общих форм центральной предельной теоремы была доказана А. М. Ляпуновым в 1900 г. Для доказательства этой теоремы А. .М. Ляпунов создал специальный метод характери- стических функций. В дальнейшем этот метод приобрел само- стоятельное значение и оказался весьма мощным и гибким методом, пригодным для решения самых различных вероятностных задач. Характеристической функцией случайной величины X назы- вается функция = (13.7.1) где I — мнимая единица. Функция g (/) представляет собой математи- ческое ожидание некоторой комплексной случайной величины U = eltK. функционально связанной с величиной Л'. При решении многих задач теории вероятностей оказывается удобнее пользоваться характеристи- ческими функциями, чем законами распределения. Зная закон распределения случайной величины Xt легко найти ее характеристическую функцию. Если X — прерывная случайная величина с рядом распределения то ее характеристическая функция 4=1 (13.7.2)
300 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 13 Если X — непрерывная случайная величина с плотностью распреде- ления /(х), то ее характеристическая функция «•(0= J eitxf(x)dx. (13.7.3) — ОО Пример 1. Случайная величина X — число попаданий при одном выстреле. Вероятность попадания равна р. Найти характеристическую функ- цию случайной величины X. ~ Решение. По формуле (13.7.2) имеем: где q = 1 — р. Пример 2. Случайная величина X имеет нормальное распределение: ж* 1 2 m=7s‘ • <13-7-4> Определить ее характеристическую функцию. Решение. По формуле (13.7.3) имеем: °° °0 Их Х* g(t)= J -J—e 2 dx=-^=- fe 2 dx. (13.7.5) J V 2л V 2л J ' z —co —co Пользуясь известной формулой co 4 ___ ЛС-В* —co и имея в виду, что i2 = — 1, получим: g(t) = e~2. (13.7.6) Формула (13.7.3) выражает характеристическую функцию g(t) непрерывной случайной величины X через ее плотность распределе- ния /(х). Преобразование (13.7.3), которому нужно подвергнуть /(х), чтобы получить g(t), называется преобразеванием Фурье. В курсах математического анализа доказывается, что если функция g(t) выра- жается через /(х) с помощью преобразования Фурье, то, в свою очередь, функция /(х) выражается через g(t) с помощью так назы- ваемого обратного преобразования Фуръе\ со = i /e~ltxg(t)dt >). (13.7.7) — ОО !) В п°п° 17.3, 174 будут выведены те же преобразования Фурье, свя- зывающие корреляционную функцию и спектральную плотность.
13.71 ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ 301 Сформулируем и докажем основные свойства характери- стических функций. 1. Если случайные величины X и Y связаны соотношением Y = aXt где а — неслучайный множитель» то их характеристические функции связаны соотношением: gy^ = gx{at). (13.7.8) Доказательство: gy (t) = М = М = М [е* <*'>*] = gx (af). 2. Xарактеристическая функция суммы независимых слу- чайных величин равна произведению характеристических функ- ций слагаемых. Доказательство. Даны Xv Х2» ...» Хп — независимые слу-. чайные величины с характеристическими функциями gXl Sr (0.......gx (О и их сумма Требуется доказать, что п gy(t) = Hgx (')• (13.7.9) 7 *=1 * Имеем п [u Е х, 1 г я 1 е *=1 =А< Де * • J La=i J Так как величины Xk независимы, то независимы и их функции eitx*. По теореме умножения математических ожиданий получим: п п £у(о=ЦлФ"х*1=П£х(0’ Л = 1 Л=1 А что и требовалось доказать. Аппарат характеристических функций часто применяется для ком- позиции законов распределения. Пусть, например, имеются две не- зависимые случайные величины X и Y с плотностями распределе- ния j\ (х) и /2 (у). Требуется найти плотность распределения величины z=x+r. Это можно выполнить следующим образом: найти характеристиче- ские функции gx(t) и gy(t) случайных величин X и Y и, перемножив
302 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ. 13 их. получить характеристическую функцию величины Z: после чего, подвергнув gz(t) обратному преобразованию Фурье, найти плотность распределения величины Z: /з(*) = Пример 3. Найти с помощью характеристических функций компози- цию двух нормальных законов: /i (х) с характеристиками тх = 0; аг; /г (У) с характеристиками = Решение. Находим характеристическую функцию величины X. Для этого представим ее в виде где та = 0; ав= 1. Пользуясь результатом примера 2, найдем г. = « 2- Согласно свойству 1 характеристических функций, 2 • Аналогично £у(0 = * 2 Перемножая gx(t) и gy(t), имеем: —- Д---LL. р gz(t) = e 2 а это есть характеристическая функция нормального закона с параметрами = 0; = lAjS Ц-Ду. Таким образом, получена композиция нормальных законов гораздо более простыми средствами, чем в п° 12.6. 13.8. Центральная предельная теорема для одинаково распределенных слагаемых Различные формы центральной предельной теоремы отличаются между собой условиями, накладываемыми на распределения образую- щих сумму случайных слагаемых. Здесь мы сформулируем и докажем одну из самых простых форм центральной предельной теоремы, отно- сящуюся к случаю одинаково распределенных слагаемых.
13.8} ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 303 Теорема. Если Хх, Х2, ...» Хп, ... — независимые случай- ные величины, имеющие один и тот же закон распределения с математическим ожиданием т и дисперсией о2, то при не- ограниченном увеличении п закон распределения суммы = (13.8.1) 4 = 1 неограниченно приближается к нормальному. Доказательство. Проведем доказательство для случая непрерывных случайных ве- личин Ху ...» Хп (для прерывных оно будет аналогичным). Согласно второму свойству характеристических функций, дока- занному в предыдущем п°, характеристическая функция величины Yn представляет собой произведение характеристических функций слага- емых. Случайные величины Ху .. м Хя имеют один и тот же закон распределения с плотностью f (х) и, следовательно, одну и ту же характеристическую функцию со gx(O= fel‘*f(x)dx. (13.8.2) — СО Следовательно, характеристическая функция случайной величины Га будет (13.8.3) Исследуем более подробно функцию Представим ее в окрест- ности точки t = 0 по формуле Маклорена с тремя членами: Г £г(о) 1 = + (13.8.4) где.а(/)->0 при /~>0. Найдем величины gx(0), g^(0), ^*(0). Полагая в формуле (13.8.2) t = 0, имеем: gx(0)= J /(x)dx = l. (13.8.5) — CO Продифференцируем (13.8.2) по t: g'x (О = J lxeitx f(x)dx = l f xeltJcf (x) dx. (13.8.6) -co —oo
304 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 1S Полагая в (13.8.6) / = 0, получим: £(0) = / J xf(x)dx=aM\X\=lm. (13.8.7) — СО Очевидно, не ограничивая общности, можно положить т = 0 (для этого достаточно перенести начало отсчета в точку /п). Тогда - ^;(О)=о. Продифференцируем (13.8.6) еще раз: g’(0 = — J x2eitxf (x)dx, — ОО отсюда £(0) = - f x^t(x)dx. (13.8.8) -ОО При т = 0 интеграл в выражении (13.8.8) есть не что иное, как дисперсия величины X с плотностью / (х), следовательно £(0)=-<А (13.8.9) Подставляя в (13.8.4) gx(0) = 1. g'x (0) = 0 и g"x (0) = — а2, получим: £ж(О=1-[4-а(Ор2- (13.8.10) Обратимся к случайной величине Y„. Мы хотим доказать, что ее закон распределения при увеличении п приближается к нормальному. Для этого перейдем от величины Уп к другой («нормированной:») случайной величине у (13,8Л1) Эта величина удобна тем, что ее дисперсия не зависит от п и равна единице при любом п. В этом нетрудно убедиться, рассматривая величину Zn как линейную функцию независимых случайных величин Хр Х2, ...» Хп, каждая из которых имеет дисперсию а2. Если мы докажем, что закон распределения величины Zn приближается к нор- мальному, то, очевидно, это будет справедливо и для величины Frt, связанной с Zn линейной зависимостью (13.8.11). Вместо того чтобы доказывать, что закон распределения величины Zn при увеличении п приближается к нормальному, покажем, что ее характеристическая функция приближается к характеристической функ- ции нормального закона1)* *) Здесь мы принимаем без доказательства, что из сходимости характе- ристических функций следует сходимость законов распределения. Доказа- тельство см., например, Б. В. Гнеденко, Курс теории вероятностей, 1961
13.8J ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 305 Найдем характеристическую функцию величины Zn. Из соотноше- ния (13.8.11), согласно первому свойству характеристических функций (13.7.8), получим (13.8.12) где gyn(f)— характеристическая функция случайной величины Yn. Из формул (13.8.12) и (13.8.3) получим [г t1 \ “1л (13.8.13) или, пользуясь формулой (13.8.10), ... Н Г’2 / t XI ** 1’ (13.8.U) Прологарифмируем выражение (13.8.14): 1 • . Г °2 / t \ 1 t2 1 1П St- (О = п ln { 1 ГГ- «I 7=Н "}• вгл I L2 \a)Gi/J/w2/ Введем обозначение Тогда Г °2 [т 1п£гя(0 = л1п{1— *}• (13.8.15) (13.8.16) Будем неограниченно увеличивать п. При этом величина х, согласно формуле (13.8.15), стремится к нулю. При значительном п ее можно считать весьма малой. Разложим 1п{1—х} в ряд и ограничимся одним членом разложения (остальные при п->оо станут пренебре- жимо малыми): 1п {1 —х} « — х. Тогда получим lim In gZn (/) = lim п • (— х) = Л-Ню л-хх> = lim Л->СО 1 <2 -/ * X *2 )_ t2 , lim t* _ Г t \ I 2 \a/n/o»f 2 +»-м» оа По определению функция а(/) стремится к нулю при /—>0; следо- вательно, 11m a (—^=Л = 0 л^оо \ а у п j и Пт 1п^л (о=—4’
306 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ. 13 откуда л->оо (13.8.17) Это есть не что иное, как характеристическая функция нормального закона с параметрами /п = 0, а=1 (см. пример 2, п° 13.7). Таким образом, доказано, что при увеличении п характеристиче- ская функция случайной величины Zn неограниченно приближается к характеристической функции нормального закона; отсюда заключаем, что и закон распределения величины Za (а значит и величины Yn) неограниченно приближается к нормальному закону. Теорема доказана. Мы доказали центральную предельную, теорему для частного, но важного случая одинаково распределенных слагаемых. Однако в до- статочно широком классе условий она справедлива и для неодинаково распределенных слагаемых. Например, А. М. Ляпунов доказал цен- тральную предельную теорему для следующих условий: п lim ( *=1 —г =0. (13.8.18) ( S©*)’ 1л=1 J где bk—третий абсолютный центральный момент величины Хк. Ь„ = >31* J = М [ I Хь 131 (ft = 1.п), Dk—дисперсия величины Xk. Наиболее общим (необходимым и достаточным) условием спра- ведливости центральной предельной теоремы является условие Линдеберга: при любом т > О ./ (х—mft)2/4(x)dx=0, л->оо Dn j । x-m^ | > хвп где mk — математическое ожидание^ fk (х) — плотность распре- деления случайной величины Хк, Вп D*. 13.9. Формулы, выражающие центральную предельную теорему и встречающиеся при ее практическом применении Согласно центральной предельной теореме, закон распределения суммы достаточно большого числа независимых случайных величин (при соблюдении некоторых нежестких ограничений) сколь угодно близок к нормальному.
.3.9] ФОРМУЛЫ. ВЫРАЖАЮЩИЕ ЦЕНТРАЛЬНУЮ ПРЕДЕЛЬНУЮ ТЕОРЕМУ 307 Практически центральной предельной теоремой можно пользо- ваться! и тогда, когда речь идет о сумме сравнительно небольшого числа случайных величин. При суммировании независимых случайных величин, сравнимых по своему рассеиванию, с увеличением числа сла- гаемых закон распределения суммы очень скоро становится прибли- зительно нормальным. На практике вообще широко применяется при- ближенная замена одних законов распределения другими; при той сравнительно малой точности, которая требуется от вероятностных расчетов, такая замена тоже может быть сделана крайне приближенно. Опыт показывает, что когда число слагаемых порядка десяти (а часто и меньше), закон распределения суммы обычно может быть заменен нормальным. В практических задачах часто применяют центральную предельную теорему для вычисления вероятности того, что сумма нескольких случайных величин окажется в заданных пределах. Пусть Л\, X2, ...» Хп — независимые случайные величины с ма- тематическими ожиданиями /Ир лт2, • • •, и дисперсиями Dp D2, .... Dn. Предположим, что условия центральной предельной теоремы вы- полнены (величины Хр Х2, ...» Х„ сравнимы по порядку своего влияния на рассеивание суммы) и число слагаемых п достаточно для того, чтобы закон распределения величины Г=5а-/ (13.9.1) 4 = 1 можно было считать приближенно нормальным. Тогда вероятность того, что случайная величина Y попадает в пре- делы участка (а, Р), выражается формулой _ .. /₽ — mv\ /а— /П«\ Р (а О < ?) = Ф* (——-) — Ф* I—, (13.9.2) где ту, су — математическое ожидание и среднее квадратическое от- клонение величины К, Ф* — нормальная функция распределения. Согласно теоремам сложения математических ожиданий и дисперсий (13.9.3)
308 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ. 13 Таким образом, для того чтобы приближенно найти вероятность попадания суммы большого числа случайных величин на заданный участок, не требуется знать законы распределения этих величин; до- статочно знать лишь их характеристики. Разумеется, это относится только к случаю, когда выполнено основное условие центральной предельной теоремы — равномерно малое влияние слагаемых на рас- сеивание суммы. Кроме формул типа (13.9.2), на практике часто применяются фор- мулы, в которых вместо суммы случайных величин Xt фигурирует их нормированная сумма 2 mt ~ Y /=1 z=i Z=—=-----------7=--- (13.9.4) v%°- Очевидно, MlZI = 0; D[Z]=^=1. Если закон распределения величины Y близок к нормальному с параметрами (13.9.3), то закон распределения величины Z близок к нормальному с параметрами —0, аг=1. Отсюда Р(а < Z < р) = Ф* (₽) — Ф* (а). (13.9.5) Заметим» что центральная предельная теорема может применяться не только к непрерывным, но и к дискретным случайным* величинам при условии, что мы будем оперировать не плотностями, а функциями распределения. Действительно, если величины Xv Х^ .... Хп дис- кретны, то их сумма X — также дискретная случайная величина м поэтому, строго говоря, не может подчиняться нормальному закону. Однако все формулы типа (13.9.2), (13.9.5) остаются в силе, так как в них фигурируют не плотности, £ функции распределения. Можно джазать, что если дискретные случайные величины удовлетворяют условиям центральной предельной теоремы, то функция распределе- ния их нормированной суммы Z (см. формулу (13.9.4)) при увеличе- нии п неограниченно приближается к нормальной функции распреде- ления с параметрами mz = 0, az = l. Частным случаем центральной предельной теоремы для дискрет- ных случайных величин является теорема Лапласа. Если производится п независимых опытов, в каждом из которых событие А появляется с вероятностью р, то спра- ведливо соотношение Р (а < < В) = Ф* (В)—Ф* (а), (13.9.6) \ УПРЧ / где Y — число появлений события А в я опытах, ? = 1 — р.
13.9] ФОРМУЛЫ, ВЫРАЖАЮЩИЕ ЦЕНТРАЛЬНУЮ ПРЕДЕЛЬНУЮ ТЕОРЕМУ 309 Доказательство. Пусть производится п независимых опытов, в каждом из которых с вероятностью р может появиться событие Л. Представим случайную величину Y — общее число появлений события в п опытах — в виде суммы (13.9.7) 1=1 где Xt — число появлений события Л в Z-м опыте. Согласно доказанной в п° 13.8 теореме, закон распределения суммы одинаково распределенных слагаемых при увеличении их числа приближается к нормальному закону. Следовательно, при достаточно большом п справедлива формула (13.9.5), где Y—mv Z = —^. (13.9.8) В п° 10.3 мы доказали» что математическое ожидание и дисперсия числа появлений события в п независимых опытах равны: ту = лр; Dy = npq (с/—\ — р). Подставляя эти выражения в (13.9.8), получим 7_ У—пр * и формула (13.9.5) примет вид: р(а < < В) = Ф*(8) — Ф‘(а). \ vnpq 1 Теорема доказана. Пример 1. По полосе укреплений противника сбрасывается 100 серий бомб. При сбрасывании одной такой серии математическое ожидание числа попаданий равно 2, а среднее квадратическое отклонение числа попаданий равно 1,5. Найти приближенно вероятность того, что при сбрасывании 100 серий в полосу попадает от 180 до 220 бомб. Решение. Представим общее число попаданий как сумму чисел по- паданий бомб в отдельных сериях: 100 . х=х( + х2+ ... +*.„=£ / = 1 где Xt — число попаданий Z-й серии. Условия центральной предельной теоремы соблюдены, так как величины Хь X2t ..., Л100 распределены одинаково. Будем считать число п = 100 до- статочным для того, чтобы можно было применить предельную теорему (на практике она обычно применима и при гораздо меньших л). Имеем: 100 л 100 Мх = 2т/ = 20°- 2 £>/=2 !.52 = 225. /=1 /=1 1 = 1
310 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 13 Применяя формулу (13.9.6), получим: Р(180 < X < 220) = Ф’ - Ф‘ (18^°°) « 0.82, т. е. с вероятностью 0,82 можно утверждать, что общее число попаданий в полосу не выйдет за пределы 180-?-220. Пример 2. Происходит групповой воздушный бой, в котором уча- ствуют 50 бомбардировщиков и ТОО истребителей. Каждый бомбардировщик атакуется двумя истребителями; таким образом, воздушный бой распадается на 50 элементарных' воздушных боев, в каждом из которых участвует один бомбардировщик и два. истребителя. В каждом элементарном бою вероят- ность сбития бомбардировщика равна 0,4; вероятность того, что в элемен- тарном бою будут сбиты оба истребителя, равна 0,2; вероятность того, что будет сбит ровно один истребитель, равна 0,5. Требуется: 1) найти вероят- ность того, что в воздушном бою будет сбито не менее 35% бомбардиров- щиков; 2) оценить границы, в которых с вероятностью 0,9 будет заключено число сбитых истребителей. * Решение. 1) Обозначим X — число сбитых бомбардировщиков; 50 Х~^хь 1=1 где Xi — число бомбардировщиков, сбитых в Z-м элементарном бою. Ряд распределения величины Л/ имеет вид; 0 1 0,6 0,4 Отсюда тг = 0,4; D- = 0,4 • 0,6 == 0,24; mr = 50 • 0,4 = 20; xi xi . ' r ar=/50-0,24 » 3,464. Применяя формулу (13.9.6) и полагая ? = 50 (или, что в данном случае равно- сильно, = оо), а = 17, находим: , Р(17<*)-1-Ф*«0,807. 2) Обозначим К число сбитых истребителей: 50 где у}— число истребителей, сбитых в Z-м элементарном бою. Ряд распределения величины К/ имеет вид: 0 1 2 0,3 0,5 0,2
13 9| ФОРМУЛЫ, ВЫРАЖАЮЩИЕ ЦЕНТРАЛЬНУЮ ПРЕДЕЛЬНУЮ ТЕОРЕМУ 311 Отсюда находим математическое ожидание и дисперсию величины К/: =0,9; Dv =0,49. Для величины г: ту = 50 • 0,9 = 45; Dy = 24,5; су = 4,96. Определим границы участка, симметричного относительно ту = 45, в ко- торый с вероятностью 0,9 попадет величина Y. Обозначим половину длины этого участка I. Тогда Р(|Г—ту| < /) = 2Ф*^-)—1=0,9, Ф*(—) = 0,9& \»у/ По таблицам функции находим то значение аргумента, для ко* торого Ф* (лг) = 0,95; это значение приближенно равно х = 1,645, т. е. — =>,6451. °у Следовательно, с вероятностью около 0,9 можно утверждать, что число сбитых истребителей будет заключено в пределах г. е. в пределах от 37 до 5&
ГЛАВА 14 ОБРАБОТКА ОПЫТОВ 14.1 . Особенности обработки ограниченного числа опытов. Оценки для неизвестных параметров закона распределения В главе 7 мы уже рассмотрели некоторые задачи математической статистики, относящиеся к обработке опытных данных. Это были главным образом задачи о нахождении законов распределения случай- ных величин по результатам опытов. Чтобы найти закон распределе- ния, нужно располагать достаточно обширным статистическим мате- риалом, порядка нескольких сотен опытов (наблюдений). Однако на практике часто приходится иметь дело со статистическим материалом весьма ограниченного объема — с двумя-тремя десятками наблюдений, часто даже меньше. Это обычно связано с дороговизной и сложностью постановки каждого опыта. Такого ограниченного материала явно не- достаточно для того, чтобы найти заранее неизвестный закон распре- деления случайной величины; но все же этот материал может быть обработан и использован для получения некоторых сведений о слу- чайной величине. Например, на основе ограниченного статистического материала можно определить—хотя бы ориентировочно — важнейшие числовые характеристики случайной величины: математическое ожида- ние, дисперсию, иногда — высшие моменты. На практике часто бывает, что вид закона распределения известен заранее, а требуется найти только некоторые параметры, от которых он зависит. Например, если заранее известно, что закон распределения случайной величины нормальный, то задача обработки сводится к определению двух его параметров тиа. Если заранее известно, что величина распределена по закону Пуассона, то подлежит определению только один его пара- метр: математическое ожидание а. Наконец, в некоторых задачах вид закона распределения вообще несуществен, а требуется знать только его числовые характеристики. В данной главе мы рассмотрим ряд задач об определении неиз- вестных параметров, от которых зависит закон распределения случай- ной величины, по ограниченному числу опытов.
14.Ц ОСОБЕННОСТИ ОБРАБОТКИ ОГРАНИЧЕННОГО ЧИСЛА ОПЫТОВ 313 Прежде всего нужно отметить, что любое значение искомого параметра, вычисленное на основе ограниченного числа опытов, всегда будет содержать элемент случайности. Такое приближенное, случай- ное значение мы будем называть оценкой параметра. Например, оцен- кой для математического ожидания может служить среднее арифме- тическое наблюденных значений случайной величины в п независимых опытах. При очень большом числе опытов среднее арифметическое будет с большой вероятностью весьма близко к математическому ожиданию. Если же число опытов п невелико, то замена математиче- ского ожидания средним арифметическим приводит к какой-то ошибке. Эта ошибка в среднем тем больше, чем меньше число опытов. Так же будет обстоять дело и с оценками других неизвестных параметров. Любая из таких оценок случайна; при пользовании ею неизбежны ошибки. Желательно выбрать такую оценку, чтобы эти ошибки были пэ возможности минимальными. Рассмотрим следующую общую задачу. Имеется случайная вели- чина Xt закон распределения которой содержит неизвестный параметр а. Требуется найти подходящую оценку для параметра а по результа- там п независимых опытов, в каждом из которых величина X при- няла определенное значение. Обозначим наблюденные значения случайной величины *1. Х2......Х„. (14.1.1) Их можно рассматривать как п «экземпляров» случайной величины X. то есть п независимых случайных величин, каждая из которых рас- пределена по тому же закону, что и случайная величина X. Обозначим а оценку для параметра а. Любая оценка, вычисляемая на основе материала (14.1.1), должна представлять собой функцию величин Xv Х2, ...» Хя: a = a(Xv Х2, ..., Хп) (14.1.2) и, следовательно, сама является величиной случайной. Закон распре- деления а зависит, во-первых, от закона распределения величины X (и, в частности, от самого неизвестного параметра а); во-вторых, от числа опытов п. В принципе этот закон распределения может быть найден известными методами теории вероятностей. Предъявим к оценке а ряд требований, которым она должна удо- влетворять, чтобы быть в каком-то смысле «доброкачественной» оценкой^ Естественно потребовать от оценки а, чтобы при увеличении числа опытов п она приближалась (сходилась по вероятности) к параметру а. Оценка, обладающая таким свойством, называется состоятельной. Кроме того, желательно, чтобы, пользуясь величиной а вместо а, мы по крайней мере не делали систематической ошибки в сторону
314 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 завышения или занижения» т. е. чтобы выполнялось условие Л1[а] = а. (14.1.3) Оценка, удовлетворяющая такому условию, называется несмещенной. Наконец, желательно, чтобы выбранная несмещенная оценка обла- дала по сравнению с другими наименьшей дисперсией, т. е. D[a] = min. (14.1.4) Оценка, обладающая таким свойством, называется аффективной. На практике не всегда удается удовлетворить всем этим требо- ваниям. Например, может оказаться, что, даже если эффективная оценка существует, формулы для ее вычисления оказываются слишком сложными, и приходится удовлетворяться другой оценкой, дисперсия которой несколько больше. Иногда применяются — в интересах про- стоты расчетов — незначительно смещенные оценки. Однако выбору оценки всегда должно предшествовать ее критическое рассмотрение со всех перечисленных выше точек зрения. 14.2 . Оценки для математического ожидания и дисперсии Пусть имеется случайная величина X с математическим ожида- нием т и дисперсией О; оба параметра неизвестны. Над величиной X произведено л независимых опытов, давших результаты Xv Х2, ..., Хл. Требуется найти состоятельные и несмещенные оценки для парамет- ров т и D. В качестве оценки для математического ожидания естественно предложить среднее арифметическое наблюденных значений (ранее мы его обозначали /н*): л S xt • . т = т* = -^—. (14.2.1) Нетрудно убедиться, что эта оценка является состоятельной: согласно закону больших чисел, при увеличении п величина т схо- дится по вероятности к т. Оценка ,т является также и несмещенной» так как л У, т ЛЦт]=^— = т. (14.2.2) Дисперсия этой оценки равна: D[m] = ~D. ' (14.2.3) «
14.2! ОЦЕНКИ ДЛЯ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ И ДИСПЕРСИИ 315 Эффективность или неэффективность оценки зависит от вида закона распределения величины X. Можно доказать, что если вели- чина X распределена по нормальному закону, дисперсия (14.2.3) будет минимально возможной, т. е. оценка m является эффективной. Для других законов распределения это может быть и,не так. Перейдем к оценке для дисперсии D. На первый взгляд наиболее естественной оценкой представляется статистическая дисперсия: S {Xt-my = , (14.2.4) где т = ~—. (14.2.5) Проверим, является ли эта оценка состоятельной. Выразим ее через второй начальный момент (по формуле (7.4.6) гл. 7): -----tn2. (14.2.6) Первый член в правой части есть среднее арифметическое п на- блюденных значений случайной величины Х2; он сходится по вероят- ности к М [Л’2] = а2[Х]. Второй член сходится по вероятности к т2\ вся величина (14.2.6) сходится по вероятности к величине ajH]—m2 = D. Это означает, что оценка (14.2.4), состоятельна. Проверим, является ли оценка О* также и несмещенной. Подста- вим в формулу (14.2.6) вместо т его выражение (14.2.5) и произ- ведем указанные действия: « п о 2^ ЪХЛ = ---------- = п \ п / S s xixj _ *=1 _ 9 i<J_________ п п2 п2 = Ё ~ 2 ’ (14.2.7) /=1
316 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 Найдем математическое ожидание величины (14.2.7): п М !£>•] = [X?] - 2 М (14.2.8) /=1 К) Так как дисперсия D* не зависит от того, в какой точке выбрать начало координат, выберем его в точке т. Тогда М [л1] = М [X/l = D; 2 М [х?1 = nD, (14.2.9) <=i Л![Х<А’/1 = ЛЦ^Ду]==^у = 0. (14.2.10) Последнее равенство следует из того, что опыты независимы. Подставляя (14.2.9) и (14.2.10) в (14.2.8), получим: Л1 [О*) =- (14.2.11) Отсюда видно, что величина О* не является несмещен- ной оценкой для D: ее математическое ожидание не равно О, а несколько меньше. Пользуясь оценкой О* вместо дисперсии D, мы будем совершать некоторую систематическую ошибку в меньшую сторону. Чтобы ликвидировать это смещение, достаточно ввести по- правку, умножив величину D* на - Получим: п jy _ Z=1___________ П _ / = 1___________ п—1 и п п— 1 п—1 Такую «исправленную» статистическую дисперсию мы и выберем в качестве оценки для О: 2 (*<-«)* O = . (14.2.12) Так как множитель стремится к единице при д~>оо, а оценка D* состоятельна,' то оценка Ь также будет состоятельной *). На практике часто вместо формулы (14.2.12) бывает удобнее применять другую, равносильную ей, в которой статистическая *) Оценка D для дисперсии не является эффективной. Однако в случае нормального распределения она является «асимптотически эффективной», то есть при увеличении п отношение ее дисперсии к минимально возможной неограниченно приближается к единице.
14.31 ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ. ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ 317 дисперсия выражена через второй начальный момент: (14.2.13) При больших значениях п, естественно, обе оценки — смещенная D* и несмещенная D — будут различаться очень, мало и введение поправочного множителя теряет смысл. * Таким образом, мы пришли к следующим правилам обработки ограниченного по объему статистического материала. Если даны значения xv х2, .х„, принятые в п независимых опытах случайной величиной X с неизвестными математическим ожи- данием т и дисперсией О, то для определения этих параметров сле- дует пользоваться приближенными значениями (оценками): или У — m)2 (14.2.14) 14.3 . Доверительный интервал. Доверительная вероятность В предыдущих п°п° мы рассмотрели вопрос об оценке неизвест- ного параметра а одним числом. Такая оценка называется «точечной». В ряде задач требуется не только найти для параметра а подходя- щее численное значение, но и оценить его точность и надежность. Требуется знать — к каким ошибкам может привести рамена пара- метра а его точечной оценкой а и с какой степенью уверенности можно ожидать, что эти ошибки не выйдут за известны^ пределы? Такого рода задачи особенно актуальны при малом числе наблю- дений, когда точечная оценка а в значительной мере случайна и приближенная замена а на а может привести к серьёзным ошибкам. Чтобы дать представление о точности и надежности оценки а, в математической статистике пользуются так называемыми дове- рительными интервалами и доверительными вероят- ностями.
318 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 Пусть для параметра л получена, из опыта несмещенная оцежа а. Мы хотим оценить возможную при этом ошибку. Назначим некоторую достаточно большую вероятность £ (например, р = 0,9, 0,95 или 0,99) такую, что событие с вероятностью р можно считать практически достоверным, и найдем такое, значение е, для которого Р(|а —л| <е) = р. .(14.3.1) Тогда диапазон практически возможных энгоений опгибялг, возникаю- щей при замене а на а, будет ±е; большие по абсолютной величине ошибки будут появляться только с малой вероятностью а = I — р. Перепишем (14.3.1) в виде: — а<а< (14.3.2) Равенство (14.3.2) означает, что с вероятностью Ц неиэвестное зна- чение параметра а попадает в интервал /₽ = (« —е; а-Н). (14.3.3) При этом необходимо отметить одно обстоятельство. Ранее мы не- однократно рассматривали вероятность попадания случайной величины в заданный неслучайный интервал. Здесь дело обстоит иначе: вели- чина а не случайна, зато случаен интервал /р. Случайно его положение на оси абсцисс, определяемое его центром а; случайна вообще и длина интервала 2е, так как величина е вычисляется, как правило, по опытным данным. Поэтому в данном случае лучше будет толковать величину р не как вероятность «попадания» точки а в ин- тервал /р, а как вероятность того, что случайный интервал на- кроет точку а (рис. 14.3.1). ь I_________- _ 0 % в o' t о» Рис. 14.3.1. Вероятность р принято называть доверительной вероятностью. а интервал 1^—доверительным интервалом1). Границы интервала/^: а1=а—е и a2 = a-f-e называются доверительными границами. Дадим еще одно истолкование понятию доверительного интервала: его можно рассматривать как интервал значений параметра а. совме- стимых с опытными данными и не противоречащих им. Действительно, если условиться считать событие с вероятностью ’) На рис. 14.3.1 рассматривается доверительный интервал, симметрич- ный относительно а. Вообще, как мы увидим дальше, это не обязательно.
МЛ ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ, ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ 319 а = 1 — р практически невозможным, то те значения параметра а, для которых | а — а | > е» нужно признать противоречащими опыт- ным данным, а те, для которых | а — а| < е, —совместимыми с ними. Перейдем к вопросу о нахождении доверительных границ аг и а2. Пусть для параметра а имеется несмещенная оценка а. Если бы нам был известен закон распределения величины а, задача нахожде- ния доверительного интервала была бы весьма проста: достаточно было бы найти такое значение е, для которого Р(|а — в| <е) = р. Затруднение состоит в том, что закон распределения оценки а зависит от закона распределения величины X и, следовательно, от его неизвестных параметров (в частности, и от самого пара- метра а). Чтобы обойти это затруднение, можно применить следующий грубо приближенный прием: заменить в выражении для е неизвестные пара- метры их точечными оценками. При сравнительно большом числе опытов л (порядка 20-*-30) этот прием обычно дает удовлетвори- тельные по точности результаты. В качестве примера рассмотрим задачу о доверительном интервале для математического ожидания. Пусть произведено л независимых опытов над случайной величи- ной X, характеристики которой — математическое ожидание т и дис- персия D — неизвестны. Для этих параметров получены оценки: «= s = '"„-1 • Требуется построить доверительный интервал соответствующий доверительной вероятности р, для математического ожидания т вели- чины X. При решении этой задачи воспользуемся тем, что величина т представляет собой сумму л независимых одинаково распределенных случайных величин Х^ и, согласно центральной предельной теореме, при достаточно большом л ее закон распределения близок к нормаль- ному. На практике даже при относительно небольшом числю слагае- мых (порядка Ю-т-20) закон распределения суммы можно прибли- женно считать нормальным. Будем исходить из того, что величина т распределена по нормальному закону. Характеристики этого закона — математическое ожидание и дисперсия — равны соответственно т и (см. гл. 13 ri°13.3). Предположим, что величина D нам известна.
320 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 и найдем такую величину ер, для которой Р(\т — т|<ер)=р. (14.3.5) Применяя формулу (6.3.5) главы 6, выразим вероятность в левой части (14.3.5) через нормальную функцию распределения Р(|« —т|<ев) = 2Ф’/^Л —1, (14.3.6) \ т / где а~=у ~-------среднее квадратическое отклонение оценки т. Из уравнения 2Ф* (_ 1 = в \ I Г \ m / находим значение ер: в? = Ойаггф’(А+£), (14.3.7) где argO*(x)— функция, обратная Ф*(х), т. е. такое значение аргу- мента. при котором нормальная функция распределения равна х. Дисперсия D, через которую выражена величина нам в точ- ности не известна; в качестве ее ориентировочного значения можно воспользоваться оценкой D (14.3.4) и положить приближенно: > .- = /-5-. (14.3.8) Таким образом, приближенно решена задача построения доверитель- ного интервала, который равен: /₽ = (да —е₽; m-j-e^), (14.3.9) где определяется формулой (14.3.7). Чтобы избежать при вычислении ер обратного интерполирования в таблицах функции Ф*(х), удобно составить 'специальную таблицу (см. табл. 14.3.1), где приводятся значения величины в зависимости от р. Величина определяет для нормального закона число средних квадратических отклонений, которое нужно отложить вправо и влево от центра рассеивания для того, чтобы вероятность попадания в полученный участок была равна р. Через величину доверительный интервал выражается в виде: L—(m— /я + АЛи)- р \ Р т 1 Р л*/
14.3) ДОВЕРИТЕЛЬНЫМ ИНТЕРВАЛ. ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ 321 Таблица 14.3.1 3 1 1 1 ' 1 ‘ 0,80 1,282 I 0,86 1,475 0,91 1,694 ! 0,97 2,169 0,81 1,310 0,87 1,513 0,92 1,750 0,98 2,325 0,82 1,340 0,88 1,554 0,93 1,810 0,99 2,576 0,83 1,371 0,89 1,597 0,94 1,880 0,9973 3,000 0,84 0,85 1,404 1,439 0,90 1,643 0,95 0,96 1,960 2,053 0,999 3,290 Пример 1. Произведено 20 опытов над величиной X; результаты приведены в таблице 14.3.2. Таблица 14.3.2 i Х1 1 *1 i " 1 1 10,5 6 10,6 П 10,6 16 10,9 2 . Ю,8 7 10,9 12 11,3 17 10,8 3 11,2 з 11,0 13 10,5 Я 18 10,7 4 Ю,9 9 10,3 1 14 Ю,7 19 10,9 5 10,4 10 10,8 15 10,8 И 20 11,0 Требуется найти оценку т для математического ожидания т величины X и построить доверительный интервал, соответствующий доверительной ве-_ роятности ₽ = 0,8. Решение. Имеем: 20 т = А-2ж' = 10*78- /=1 Выбрав за начало отсчета х=10, по третьей формуле (14.2.14) находим несмещенную оценку D: В = ("^Г ~ °’78*) S “ 0>064; а~=1/ — = 0,0564. туп По таблице 14.3.1 находим »1,282; <й =з = 0,072. Р Р tn Доверительные границы: 0,072=10,71; т2 = т Ц- 0,072 « 10,85. Доверительный интервал: =.(10,71; 10,85). Значения параметра т, лежащие в этом интервале, являются совмести- мыми с опытными данными, приведенными в таблице 14.3.2. 21-3015
322 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 Аналогичным способом может быть построен доверительный интервал и для дисперсии. Пусть произведено п независимых опытов над случайной величи- ной X с неизвестными параметрами т и D, и для дисперсии D по* лучена несмещенная оценка: -О = 2г1__--------, (14.3.11) где Требуется приближенно построить доверительный интервал для дисперсии. Из формулы (14.3.11) видно, что величина D представляет собой м {X, — т)3 о. сумму п случайных величин вида - ' . Эти величины » не являются независимыми, так как в любую из них входит величина т, зависящая от всех остальных. Однако можно показать, что при уве- личении п закон распределения их суммы тоже приближается к нор- мальному. Практически при п = 20-+-30 он уже может считаться нормальным. Предположим, что это так, и найдем характеристики этого закона: математическое ожидание и дисперсию. Так как оценка D — несме- щенная, то Л1[О] = О. Вычисление дисперсии D[D] связано со сравнительно сложными выкладками, поэтому приведем ее выражение без вывода: Где — четвертый центральный момент величины X. Чтобы воспользоваться этим выражением, нужно подставить в него значения р4 и D (хотя бы приближенные). Вместо D можно воспользоваться его оценкой D. В принципе четвертый централь- ный момент |а4 тоже можно заменить его оценкой, например вели- чиной вида: 2(Х|-тГ , (14.3.13)
14.3] ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ. ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ 823 но такая замена даст крайне невысокую точность, так как вообще при ограниченном числе опытов моменты высокого порядка опреде- ляются с большими ошибками. Однако на практике часто бывает, что вид закона распределения величины X известен заранее: неиз- вестны лишь его параметры. Тогда можно попытаться выразить р4 через D. Возьмем наиболее часто встречающийся случай, когда величина X распределена по нормальному закону. Тогда ее четвертый централь- ный момент выражается. через дисперсию (см. гл. 6 п° 6.2): Н = ЗО2, и формула (14.3.12) дает D|Dl = |D>-^=irD> ИЛИ (14.3.14) Заменяя в (14.3.14) неизвестное D его оценкой D, получим: D[D] = ^TD2, (14.3.15) откуда = (14.3.16) Момент р4 можно выразить через D также и в некоторых других случаях, когда распределение величины X не является нормальным, но вид его известен. Например, для закона равномерной плотности (см. главу 5) имеем: (Р~«) 80 1*4 в где (л, Р)—интервал, на котором задан закон. Следовательно. р4 в 1,8О2. По формуле (14.3.12) получим: 0,8 л 4-1,2 рл откуда находим приближенно 0,8л 4-1,2 а л (л—1) и* (14.3.17)
324 ОБРАБОТКА ОПЫТОВ [ГЛ. И В случаях, когда вид закона распределения величины X неизве- стен, при ориентировочной оценке величины од рекомендуется все же пользоваться формулой (14.3.16), если нет специальных оснований считать, что этот закон сильно отличается от нормального (обладает заметным положительным или отрицательным эксцессом). Если ориентировочное значение тем или иным способом полу- чено. то можно построить доверительный интервал для дисперсии, аналогично тому, как мы строили его для математического ожидания: /р = (О ~ tp# Ъ + (14.3.18) где величина в зависимости от заданной вероятности £ находится по таблице 14.3.1. Пример 2. Найти приближенно 80%-й доверительный интервал для дисперсии случайной величины X в условиях примера 1, если известно, что величина X распределена по закону, близкому к нормальному. Решение. Величина остается той же, что в примере 1: 1,282. По формуле (14.3.16) Г~<Г « 1/ -±. .0,064» 0,0207. По формуле (14.3.18) находим доверительный интервал: (0,043; 0,085). Соответствующий интервал значений среднего квадратического отклонения: (0,21; 0,29). 14.4. Точные методы построения доверительных интервалов для параметров случайной величины, распределенной по нормальному закону В предыдущем п° мы рассмотрели грубо приближенные методы построения доверительных интервалов для математического ожидания и дисперсии. В данном п° мы дадим представление о точных мето- дах решения той же задачи. Подчеркнем, что для точного нахожде- ния доверительных интервалов совершенно необходимо знать заранее вид закона распределения величины X, тогда как для применения приближенных методов это не обязательно. Идея точных методов построения доверительных интервалов сво- дится к следующему. Любой доверительный интервал находится из условия, выражающего вероятность выполнения некоторых неравенств, в которые входит интересующая нас оценка а. Закон распределения оценки а в общем случае зависит от самих неизвестных параметров величины X. Однако иногда удается перейти в неравенствах от слу-
14.41 МЕТОДЫ ПОСТРОЕНИЯ ДОВЕРИТЕЛЬНЫХ ИНТЕРВАЛОВ 325 чайной величины а к какой-либо другой функции наблюденных зна- чений Xv Х2. .... Ха, закон распределения*которой не зависит от неизвестных параметров, а зависит только от числа опытов л и от вида закона распределения величины X. Такого рода случайные величины играют большую роль в математической статистике; они наиболее подробно изучены для случая нормального распределения величины X. Например, доказано, что при нормальном распределении вели- чины X случайная величина (14.4.1) где п п подчиняется так называемому закону распределения Стьюдента сп — 1 степенями свободы; плотность этого закона имеет вид г(—\ = (М.4.2) где Г(х) — известная гамма-функция: СО Г (*) = ]’ а*-{е-и da. О Доказано также, что случайная величина v_ (л-1)0 v —---Ъ--- (14.4.3) имеет «распределение х2» с п—1 степенями свободы (см. гл. 7. стр. 145), плотность которого выражается формулой ——т------v 2 е 2 при v > О, Ля-1(«) = (14.4.4) О при v < 0. Не останавливаясь на выводах распределений (14.4.2) и (14.4.4), покажем, как их можно применить при построении доверительных интервалов для параметров т и D.
326 ОБРАБОТКА ОПЫТОВ (ГЛ. И Пусть произведено п независимых опытов над случайной вели- чиной X, распределенной по нормальному закону с неизвестными параметрами т и D. Для этих параметров получены оценки Требуется построить доверительные интервалы для обоих параметров, соответствующие доверительной вероятности 0. Построим сначала доверительный интервал для математического ожидания. Естественно этот интервал взять симметричным относи- тельно т; обозначим ер половину длины интервала. Величину е? нужно выбрать так, чтобы выполнялось условие Р(]т — /п| <ер = р. (14.4.5) Попытаемся перейти в левой части равенства (14.4.5) от случай- ной величины т к случайной величине Т, распределенной по закону Стьюдента. Для этого умножим обе части неравенства |/п — /п| <е? У~п . на положительную величину у—’: или, пользуясь обозначением (14.4.1), (14.4.6) ‘ Найдем такое число ty что Р(|Т|<9М- (14.4.7) Величина ta найдется из условия 'И Р(|Т|<9= (14.4.8) Из формулы (14.4.2) видно, что Sn_y(t) — четная функция; по- этому (14.4.8) дает , 2 JSe_j (/)« = ₽. (14.4.9) О
14.4] МЕТОДЫ ПОСТРОЕНИЯ ДОВЕРИТЕЛЬНЫХ ИНТЕРВАЛОВ 327 Равенство (14.4.9) определяет величину в зависимости от р. Если иметь в своем распоряжении таблицу значений интеграла X V(x) = 2 j" S„_1(t)df, О то величину можно найти обратным интерполированием в этой таблице. Однако удобнее составить заранее таблицу значений Такая таблица дается в приложении (см. табл. 5). В этой таблице приведены значения в зависимости от доверительной вероятности р и числа степеней свободы п — 1. Определив по таблице 5 и по- лагая Ъ = (14.4.10) мы найдем половину ширины доверительного интервала и сам интервал __ ________________ /₽= т + (14.4.11) Пример 1. Произведено 5 независимых опытов над случайной вели- чиной X распределенной нормально с неизвестными параметрами т и а. Результаты опытов приведены в таблице 14.4.1. Таблица 14.4.1 i 1 2 3 4 5 -2,5 3,4 —2,0 1,0 2,1 Найти оценку т для математического ожидания и построить для него 90%-й доверительный интервал Л (т. е. интервал, соответствующий доверительной вероятности р *= 0,9). р Решение. Имеем т » 0,4; И 6,6. По таблице 5 приложения для п —1—4 и р = 0,9 находим /р = 2ДЗ, откуда *э = '₽/4«2,45- Доверительный интервал будет *(т — in 4- sp) * (—2,05; 2,85). .
328 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 пример 2. Для условий примера 1 п° 14Д предполагая величину X распределенной нормально, найти точный доверительный интервал. Решение. По таблице 5 приложения находим при п — 1 = 19 и 0 «= 0,8 » 1,328; отсюда tp ® « 0,0704. Сравнивая с решением примера 1 п° 143 (tp = 0,072), убеждаемся, что расхождение весьма незначительно. Если сохранить точность до второго знака после запятой, то доверительные интервалы, найденные точным и при- ближенным методами» совпадают: /, — (10,71; 10,85). Перейдем к построению доверительного интервала для дисперсии. Рассмотрим несмещенную оценку дисперсии 2 (Ъ-тУ и выразим случайную величину Ь через величину V (14.4.3). имеющую распределение х3 (14.4.4): (14.4.12) / х. Знал закон распределения i величины V, можно найти Z интервал 1$, в который она попадает с заданной верояг- У//^тт.— v ностью ₽. 1 if Закон распределения £„_,(<>) величины V име- Рис. 14.4.1. ет вид. изображенный на рис. 14.4.1. Возникает вопрос: как выбрать интервал Если бы закон рас- пределения величины V был симметричным (как нормальный закон или распределение Стыодента), естественно было бы взять интервал Z, симметричным относительно математического ожидания. В данном случае закон Ая-1 (v) несимметричен. Условимся выбирать интервал так. чтобы вероятности выхода величины V за пределы интервала вправо и влево (заштрихованные плошади на рис. 14.4,1) были оди- наковы и равны a l—Р 2 2
14.41 МЕТОДЫ ПОСТРОЕНИЯ ДОВЕРИТЕЛЬНЫХ ИНТЕРВАЛОВ 329 Чтобы построить интервал с таким свойством, воспользуемся таблицей 4 приложения: в ней приведены числа х2 такие, что Р(У>12)=‘Р для величины V, имеющей х’-распраделение с г степенями свободы. В нашем случае г = л — 1. Зафиксируем г = п — 1 и найдем в со- ответствующей строке табл. 4 два значения у2: одно, отвечающее вероятности — другое — вероятности р2 = 1—у» Обозначим эти значения у2 и у^. Интервал имеет у2 своим левым, а У* — правым концом. Теперь найдем по интервалу искомый доверительный интер- вал /р для дисперсии с границами Dt и D2, который накрывает точку D с вероятностью 0: P(D1<D<D2) = p. Построим такой интервал /? = (Dt, DJ, который накрывает точку D тогда и только тогда, когда величина V попадает в интервал lf. Покажем, что интервал (14.4.13) \ *1 *2 / удовлетворяет этому условию. Действительно, неравенства Й(п-1) < п X2 X2 равносильны неравенствам v<x?; >>у» а эти неравенства выполняются с вероятностью ₽. Таким образом, доверительный интервал для дисперсии найден и выражается форму- лой (14.4.13). Пример 3. Найти доверительный интервал для дисперсии в условиях примера 2 п° 14Д если известно, что величина X распределена нормально. Решение. Имеем $ == 0,8; а = 0,2; у = 9,1. По таблице 4 приложения находим при г = л -1 = 19 для рг«« у в °»1 Xi33 27,2; для р2 = 1 — у = 0,9 х|= 11,65.
330 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 По формуле (14.4.13) находим доверительный интервал для дисперсии /р== (0,045; 0,104). Соответствующий интервал для среднего квадратического отклонения: (0,21; 0,32). Этот интервал лишь незначительно превосходит полученный в примере 2 п° 14.3 приближенным методом интервал (0,21; 0,29). 14.5. Оценка вероятности по частоте На практике часто приходится оценивать неизвестную вероят- ность р события А по его частоте р* в п независимых опытах. Эта задача близко примыкает к рассмотренным в предыдущих п°п°. Действительно, частота события А в п независимых опытах есть не что иное, как среднее арифметическое наблюденных значений вели- чины Л, которая в каждом отдельном опыте принимает значение 1, если событие А появилось, и 0, если не появилось: п р‘ = -4—. (14.5.1) Напомним, что математическое ожидание величины X равно р; ее дисперсия pq, где q—\—р. Математическое ожидание, среднего арифметического также равно р М [р*] = р, (14.5.21 т. е. оценка р* для р является несмещенной. Дисперсия величины р* равна D\p'\ = &~. (14.5.3) Можно доказать, что эта дисперсия является минимально возмож- ной, т. е. оценка р* для р является эффективной. Таким образом, в качестве точечной оценки для неизвестной ве- роятности р разумно во всех случаях принимать частоту р*. Возни- кает вопрос о точности и надежности такой оценки, т. е. о построе- нии доверительного интервала для вероятности р. Хотя эта задача и представляет собой частный случай ранее рассмотренной задачи о доверительном интервале для математического ожидания, все же целесообразно решать ее отдельно. Специфика здесь в том, что величина X — прерывная случайная величина только с двумя возможными значениями: 0 и 1. Кроме того, ее математи- ческое ожидание р и дисперсия pq = p(\—р) связаны функцио- нальнбй зависимостью. Это упрощает задачу построения доверитель- ного интервала.
14.5] ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 331 Рассмотрим сначала наиболее простой случай, когда число опы- тов п сравнительно велико, а вероятность р не слишком велика и не слишком мала. Тогда можно считать, что частота события р* есть случайная величина, распределение которой близко к нормаль- ному1). Расчеты показывают, что этим допущением можно пользо- ваться даже при не очень больших значениях п: достаточно, чтобы обе величины пр и nq были больше четырех. Будем исходить из того, что эти условия выполнены и частоту р* можно считать рас- пределенной по нормальному закону. Параметрами этого закона будут: тр.==р; = - (14.5.4) Предположим сначала, что величина р нам известна. Назначим дове- рительную вероятность 0 и найдем такой интервал (р—ер, p-j-Sp), чтобы величина р* попадала в этот интервал с вероятностью 0: <*₽) = ?• (14.5.5) Так как величина р* распределена нормально, то \ р* / откуда, как и в п° 14.3, efl = ep.argO*p±£), где arg Ф* — функция, обратная нормальной функции распределения Ф*. Для определения р, как и в п° 14,3, можно обозначить Тогда в? = ^вр», (14.5.6) где определяется из таблицы 14.3.1. Таким образом, с вероятностью р можно утверждать, что \P*~P\<h}/~^' (14.5.7) Фактически величина р нам неизвестна; однако неравенство (14.5.7) будет иметь вероятность 0 независимо от того, известна нам или неизвестна вероятность р. Получив из опыта конкретное значение частоты р*. можно, пользуясь неравенством (14.5.7), найти интервал/р, который с вероятностью 0 накрывает точку р. Действительно, *) Частота события при п опытах представляет собой прерывную слу- чайную величину; говоря о близости ее закона распределения к нормаль- ному, мы имеем в виду функцию распределения, а не плотность.
332 ОБРАБОТКА ОПЫТОВ (ГЛ. !4 преобразуем это неравенство к виду (р’~^<-^^(1 — р) (14.5.8) и дадим ему геометрическую интерпретацию. Будем откладывать по оси абсцисс частоту р*. а по оси ординат — вероятность р (рис. 14.5.1). Геометрическим местом точек, координаты которых р* и р удовле- творяют неравенству (14.5.8), будет внутренняя часть эллипса, про- ходящего через точки (0, 0) и (1, 1) и имеющего в этих точках касательные, параллель- ные оси Ор*. Так как вели- чина р* не может быть ни отрицательной, ни большей единицы, то область D, со- ответствующую неравенству (14.5.8), нужно еще ограни- чить слева и справа прямыми р* = 0 и р* = 1. Теперь можно для любого значения />*, полу- ченного из опыта, построить доверительный интервал /р, ко- торый с вероятностью Р накроет неизвестное значение р. Для этого проведем через точку р* прямую, параллельную оси ординат; на этой прямой границы области D отсекут доверительный интервал /р = (/>!> />г). Действительно, точка М со случайной абсциссой р* и неслучайной (но неизвестной) ординатой р с вероятностью р попадет внутрь эллипса, т. е. интервал /р с вероятностью р накроет точку р. Размеры и конфигурация «доверительного эллипса» зависят от числа опытов п. Чем больше п, тем больше вытянут эллипс и тем уже доверительный интервал. Доверительные границы рх и р2 можно найти из соотношения (14.5.8), заменяв в нем знак неравенства равенством. Решая получен- ное квадратное уравнение относительно р, получим два корня: А = Р1 = 1J. 4 пг (14.5.9)
14.5] ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 333 Доверительный интервал для вероятности р будет = Р2>- Пример 1. Частота события А в серии из 100 опытов оказалась р*==0,78. Определить 90%-й доверительный интервал для вероятности р со- бытия А. Решение. Прежде всего проверяем применимость нормального закона; для этого оценим величины пр и nq. Полагая ориентировочно р « р*, получим пр « лр* = 78; nq « п (1 — р*) =» 22. Обе величины значительно больше четырех; нормальный закон применим. Из таблицы 14.3.1 для ?=0,9 находим 1,643. По формулам (14.5,9) имеем Pi == 0,705; р2 = 0,840; = (0,705; 0,840). Заметим,, что при (14.5.9) стремятся 1 ж увеличении п величины д и в формулах к нулю; в пределе формулы принимают вид Р1=х—/р Ръ — Р* (14.5.10) Л Эти формулы могут быть получены и непосредственно, если воспользоваться приближенным способом построения доверительного интервала для математического ожидания, данным в п° 14.3. Форму- лами (14.5.10) можно пользоваться при больших п (порядка сотен), если только вероятность р не слишком велика и не слишком мала (например, когда обе величины пр и nq порядка 10 или более). Пример 2. Произведено 200 опытов; частота события А оказалась р* «в 0,34. Построить 85 %-й доверительный* интервал для вероятности собы- тия приближенно (по формулам (14.5.10)). Сравнить результат с точным, соответствующим формулам (14.5.9). Решение. 0=0,85; по таблице 14.3.1 находим ^ = 1,439. Умножая * его на __________ уЛ rr-g*! ~ 0,0335, получим «0,048, откуда находим приближенно доверительный интервал /р » (0,292; 0,388). По формулам (14.5.9) найдем более точные значения pi = 0,294; р2«0,389, которые почти не отличаются от приближенных.
334 ОБРАБОТКА ОПЫТОВ (ГЛ М Выше мы рассмотрели вопрос о построении доверительного интер- вала для случая достаточно большого числа опытов, когда частоту можно считать распределенной нормально. При малом числе опытов (а также если вероятность р очень велика или очень мала) таким допущением пользоваться нельзя. В этом случае доверительный ин- тервал строят, исходя не из приближенного, а из точного закона распределения частоты. Нетрудно убедиться, что это есть биномиаль- ное распределение, рассмотренное в главах 3 и 4. Действительно, число появлений события А в п опытах распределено по биномиальному закону: вероятность того, что событие А появится ровно т раз, равна Рт.п = С%ртдп-т, (14.5.11) а частота р* есть не что иное, как число появлений события, делен- ное на число опытов. Исходя из этого распределения, можно построить доверительный интервал I* аналогично тому, как мы строили его, исходя из нор- мального закона для больших п (стр. 331). Предположим сначала, что вероятность р нам известна, и найдем интервал частот р*, р*2> в который с вероятностью 0= 1 —а попадет частота события, р*. Для случая большого п мы пользовались нормальным законом рас- пределения и брали интервал симметричным относительно математиче- ского ожидания. Биномиальное распределение (14.5.11) не обладаем симметрией. К тому же (в связи с тем, что частота — прерывная случайная величина) интервала, вероятность попадания в который в точ- ности равна р, может и не существовать. Поэтому выберем в'качестве интервала р*, р* самый малый интервал, вероятность попадания левее которого и правее которого будет больше у. Аналогично тому, как мы строили область D для нормального закона (рис. 14.5.1), можно будет для каждого п и заданного р по- строить область, внутри которой значение вероятности р совместимо с наблюденным в опыте значением частоты р*. На рис. 14.5.2 изображены кривые, ограничивающие такие области для различных п при доверительной вероятности р = 0,9. По оси абсцисс откладывается частота р*, по оси ординат — вероятность р. Каждая пара кривых, соответствующая данному п, определяет довери- тельный интервал вероятностей, отвечающий данному значению частоты. Строго говоря, границы областей должны быть ступенчатыми (ввиду прерывности частоты), но для удобства они изображены в виде плавных кривых. Для того чтобы, пользуясь такими кривыми, найти доверительный интервал Zp, нужно произвести следующее построение (см. рис. 14.5.2): по оси абсцисс отложить наблюденное в опыте значение частоты р*,
14.S! ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 335 провести через эту точку прямую, параллельную оси ординат, и отметить точки пересечения прямой с парой кривых, соответствующих данному числу опытов л; проекции этих точек на ось ординат и дадут границы pv р2 доверительного интервала /р. При заданном п кривые, ограничивающие «доверительную область», определяются уравнениями: п 2 С*рт(\ — р)я-т=^; (14.5.12) k ^С”рт(Д—р)п-т = ^, (14.5.13) т = 0 где k — число появлений события: k — пр*. Разрешая уравнение (14.5.12) относительно р, можно найти нижнюю границу рх «доверительной области»; аналогично из (14.5.13) можно найти р2. Чтобы не решать эти уравнения каждый раз заново, удобно заранее затабулировать (или представить графически) решения для нескольких
336 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 типичных значений доверительной вероятности р. Например, в книге И. В. Дунина-Барковского и Н. В. Смирнова «Теория вероят- ностей и математическая статистика в технике» имеются таблицы рх и р2 для £ = 0,95 и £ = 0,99. Из той же книги заимствован график рис. 14.5.2. Пример 3. Найти доверительные границы р\ и р2 для вероятности события, если в 50 опытах частота его оказалась / = 0Д Доверительная вероятность ₽ • 0,9. Решение. Построением (см. пунктир на рис. 14.5.2) для р*«0,4 и л = 50 находим: р\ ж 0,28; р2 « 0,52. Пользуясь методом доверительных интервалов, можно приближенно решить и другой важный для практики вопрос: каково должно быть число опытов п для того, чтобы с доверительной вероятностью £ ожидать, что ошибка от замены вероятности частотой не превзойдет заданного значения? При решении подобных задач удобнее не пользоваться непосред- ственно графиками типа рис. 14.5.2, а перестроить их, представив доверительные границы как функции от числа опытов л. Пример 4. Проведено 25 опытов, в которых событие А произошло 12 раз. Найти ориентировочно число опытов п, которое понадобится для ЦЮ О 50 Ю0 Рис. 14.5.3. того, чтобы с вероятностью р = 0,9 ошибка от замены вероятности частотой не превзошла 20%. Решение. Определяем предельно допустимую ошибку: Д =0,2-0,48 = 0,096 «0,1. Пользуясь кривыми рис. 14.5.2, построим новый график: по оси абсцисс отложим число опытов л, по оси ординат — доверительные границы для вероят- ности (рис. 14.5.3). Средняя прямая, параллельная оси абсцисс, соответствует
14.5) ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 337 12 наблюденной частоте события рР = 0,48. Выше и ниже прямой р == р* = = 0,48 проведены кривые Pi (д) и р3 (и), изображающие нижнюю и верхнюю доверительные границы в зависимости от д. Область между кривыми, опре- деляющая доверительный интервал, заштрихована. В непосредственной бли- зости от прямой р = 0,48 двойной штриховкой показана более узкая область 20 % -й допустимой ошибки. Из рис. 14.5.3 видно, что ошибка падает до допустимой величины при числе опытов д порядка 100. Заметим, что после выполнения потребного числа опытов может понадобиться новая проверка точности определения вероятности по частоте, так как будет получено в общем случае уже другое значение частоты /Л отличное от наблюденного в ранее проведенных опытах. При этом может оказаться, что число опытов все еще недостаточно для обеспечения необходимой точности, и его придется несколько увеличить. Однако первое приближение, полученное описанным выше методом, может служить для ориентировочного предварительного пла- нирования серии опытов с точки зрения требуемого на них времени, денежных затрат и т. д. На практике иногда приходится встречаться со своеобразной зада- чей определения доверительного интервала для вероятности события, когда полученная из опыта частота равна нулю. Такая задача обычно связана с опытами, в которых вероятность интересующего нас события очень мала (или, наоборот, очень велика—тогда мала вероятность противоположного события). Пусть, например, проводятся испытания какого-то изделия на без- отказность работы. В результате испытаний изделие не отказало ни разу. Требуется найти максимальную практически возможную вероят- ность отказа. Поставим эту задачу в общем виде. Произведено п независимых опытов, ни в одном из которых событие А не произошло. Задана доверительная вероятность р; требуется построить доверительный интервал для вероятности р события 4, точнее — найти его верхнюю границу р2» так как нижняя ру естественно, равна нулю. Поставленная задача является частным случаем общей задачи о доверительном интервале для вероятности, но ввиду своих особен- ностей заслуживает отдельного рассмотрения. Прежде всего, прибли- женный метод построения доверительного интервала (на основе замены закона распределения частоты нормальным), изложенный в начале данного п°, здесь неприменим, так как вероятность р очень мала. Точный метод построения доверительного интервала на основе бино- миального распределения в данном случае применим, но может быть существенно упрощен. Будем рассуждать следующим образом. В результате п опытов наблюдено событие В, состоящее в том, что А нр появилось ни разу Требуется найти максимальное значение р = р2. которое «совместимо» с наблюденным в опыте событием В, если считать
338 ОБРАБОТКА ОПЫТОВ (ГЛ. Н «несовместимыми» с В те значения pt для которых вероятность события В меньше, чем а = 1— Очевидно, для любой вероятности р события А вероятность наблюденного события В равна Р(В) = (1-р)л. Полагая Р(В) = а, получим уравнение для р2: (1—Р2)Л = 1—(14.5.14) откуда п ---- р2=1— yi — р. (14.5.15) Пример 5. Вероятность р самопроизвольного срабатывания взрыва- теля при падении снаряда с высоты h неизвестна, но предположительно весьма мала. Произведено 100 опытов, в каждом из которых снаряд роняли с высоты А, но ни в одном опыте взрыватель не сработал. Определить верхнюю границу р2 90 % -го доверительного интервала для вероятности р. Решение. По формуле (14.5.15) 100 100 р2=1 — /1—0,9 = 1— /ОД. 100 _ 1g /о,1 = 0,011g 0,1 = i ,9900; 100 _ К0,1 « 0,977; р2 = 1 — 0,977 — 0,023. Рассмотрим еще одну задачу, связанную с предыдущей. Событие А с малой вероятностью р не наблюдалось в серии из п опытов ни разу. Задана доверительная вероятность р. Каково должно быть число опытов п для того, чтобы верхняя доверительная граница для вероятности события была равна заданному значению р2? Решение сразу получается из формулы (14.5.14): 1g(l — 1g(1-Л) * (14.5.16) Пример 6. Сколько раз нужно убедиться в безотказной работе изде- лия для того, чтобы с гарантией 95% утверждать, что в практическом при- менении оно будет отказывать не более чем в 5% всех случаев? Решение. По формуле (14.5.16) при ₽ = ^95, == 0,05 имеем: . 1g 0,05 lg0,95 я 58,4. Округляя в большую сторону, получим: л = 59. Имея в виду ориентировочный характер всех расчетов подобного рода, можно предложить вместо формул (14.5.15) и (14.5.16) более простые приближенные формулы. Их можно получить, предполагая,
14.6] оценки для числовых характеристик системы величин 339 что числб появлений события А при п опытах распределено по закону Пуассона с математическим ожиданием а —пр. Это предположение приближенно справедливо в случае, когда вероятность р очень мала (см. гл. 5, п° 5.9). Тогда Р(В)л>е~яр, и вместо формулы (14.5.15) получим: — 1п(1 —р) л * (14.5.17) (14.5.18) Ръ~ а вместо формулы (14.5.16) п « 1П(1 —р) А Пример 7. Найти приближенно значение pt для условий примера 5. Решение. По формуле (14.5.14) имеем: „ — 1п0,1 _ 2.303 р> ” ioo~— “Too”=°'023’ т. е. тот же результат, который получен по точной формуле в примере 5. Пример 8. Найти приближенно значение л для условий примера 6. Решение. По формуле (14.5.18) имеем: — In 0,05 2,996 ,пл ЯЯ!_аб5_=те“=59Д Округляя в бдлыпую сторону, находим л = 60, что мало отличается от ре- зультата л = 59, полученного в примере 6. 14.6. Оценки для числовых характеристик системы случайных величин В п°п° 14.1—14.4 мы рассмотрели задачи, связанные с оценками для числовых характеристик одной случайной величины при ограни- ченном числе опытов и построением для этих характеристик дове- рительных интервалов. Аналогичные вопросы возникают и при обработке ограниченного числа наблюдений над двумя и более случайными величинами. Здесь мы ограничимся рассмотрением только точечных оценок для характеристик системы. Рассмотрим сначала случай двух случайных величин. Имеются результаты п независимых опытов над системой случай- ных величин (АГ, Е), давшие результаты: (Хц У1); (х2. Уг): •••: (хя- У«)- Требуется найти оценки для числовых характеристик системы: математических ожиданий /пж, ту9 дисперсий Dx> D? и корреляцион- ного момента Кху.
340 ОБРАБОТКА ОПЫТОВ (ГЛ 14 Этот вопрос решается аналогично тому, как мы решили его для одной случайной величины. Несмещенными оценками для математи- ческих ожиданий будут средние арифметические: я л S Xi 2 У/ а для элементов корреляционной матрицы — S(x<-'«r)2 ________ Л— 1 л 2(у/-«у)2 /=1 (14.6.2) Р ________________ Аху— л—1 Доказательство может быть проведено аналогично п° 14.2. При непосредственном вычислении оценок для дисперсий и кор- реляционного момента часто бывает удобно воспользоваться связью между центральными и начальными статистическими моментами: (14.6.3) и—«*«•, где 2 У? 2 xiyi Y^^T~ (14.6.4) Вычислив статистические моменты по формулам (14.6.3), можно затем найти несмещенные оценки для элементов корреляционной
14.61 ОЦЕНКИ ДЛЯ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛИЧИН 341 матрицы по формулам: (14.6.5) ___iz* п Пример. Произведены стрельбы с самолета по земле одиночными выстрелами. Зарегистрированы координаты точек попадания и одновременно записаны соответствующие значения угла скольжения самолета. Наблюден- ные значения угла скольжения р (в тысячных радиана) и абсциссы точки попадания X (в метрах) приведены в таблице 14.6.1. Таблица 14.6.1 1 ч *1 I 4 xl 1 —8 —10 11 +3 —1 2 4-10 —2 12 -2 +4 3 --22 4-4 13 +28 +12 4 • -55 +10 14 +62 +20 5 +2 — 1 15 —10 —11 6 -30 —16 16 —8 +2 7 -15 —8 17 +22 4-14 8 +5 —2 18 +3 +6 9 4-10 4-6 19 -32 —12 10 +18 +8 20 +8 +1 Найти оценки для числовых характеристик системы (Р, X). Решение. Для наглядности наносим все пары значений (р, X) на график (рис. 14.6.1) Расположение точек на графике уже свидетельст- вует о наличии определенной зависимости (положительной корреляции) между ₽ и X. По формулам (14.6.1) вычисляем средние значения величин р и X — оценки для математических ожиданий: /ир «я 7,15; /я г 0,5. Далее находим статистические вторые начальные моменты: 20 <4l₽]=-^—581& 20 «2 И] = -^-=85,4,
342 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 По формулам (14.6.3) находим статистические дисперсии: Г>; = 581,8 — 51,0 = 530,8; D* = 85,4 — 0,2 = 85,2. Для нахождения несмещенных оценок умножим статистические дис- п 20 Персии на ^ ^- р3858 jg > получим: Йр = 559, £»ж = 89,7. Соответственно средние квадратические отклонения равны: Ор = У Щ = 23,6; ож = 9,46. По последней формуле (14.6.4) находим статистический начальный момент: п “1,1 (₽. = -Цо-------190.8 и статистический корреляционный момент: 1 х} — =“ = 190,8 — 3,6= 187,2. Для определения несмещен- ной оценки умножаем его на п 20 Р = —; получаем: /^=197,0, откуда оценка для коэффициента корреляции равна: ? - 1970 -ом 23,6-9,46 ~0,88, Полученное сравнительно большое значение г$х указывает на наличие существенной связи между р и X; на этом основании можно предполагать, что скольжение является основной причиной боковых отклонений снарядов. Перейдем к случаю обработки наблюдений над системой произ- вольного числа случайных величин. Имеется система т случайных величин (*!• *2...... Над системой произведено п независимых наблюдений; резуль- таты этих наблюдений оформлены в виде таблицы, каждая строка которой содержит т значений, принятых случайными величинами Xv Х2.......Хт в одном наблюдении (табл. 14.6.2).
14.6) ОЦЕНКИ ДЛЯ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛИЧИН 343 Таблица 14.6.2 1 *1 Х2 ... хь ... хт 1 Хц Х2} ... Xkl • • • Xml 2 Х\2 Х22 . . . Xk2 ... Хщ2 • • • ... • ... • i *11 Х21 ... Хщ ... Xmi : • ... • ... • п Хщ Х2П . . . Xtm ... Хтп Числа, стоящие в таблице и занумерованные двумя индексами, представляют собой зарегистрированные результаты наблюдений; пер- вый индекс обозначает номер случайной величины, второй—номер наблюдения, так что хк1— это значение, принятое величиной Хк в /-м наблюдении. Требуется найти оценки для числовых характеристик системы: математических ожиданий тх^ тх^ ционной матрицы: mXfn и элементов корреля- им = • • • • ^тт По главной диагонали корреляционной матрицы, очевидно, стоят дисперсии случайных величин Xv Х2, ...» Хт*. — Dy К%2 — D29 • • •» Ктт — Dm. Оценки для математических ожиданий найдутся как средние ариф- метические: = (£ = 1,2.........т). (14.6.6)
344 ОБРАБОТКА ОПЫТОВ (ГЛ. м Несмещенные оценки для дисперсий определятся по формулам . So-*'.) о.= „_1------ (14.6.7) а для корреляционных моментов—по формулам *«=—------------гзп-------------(14.6.8) По этим данным определяются оценки для элементов нормира* ванной корреляционной матрицы: (14.6.9) где ___ ___________ ak = Vd^; at = Vfy. (14.6.10) Пример. Сброшено 10 серий бомб, по 5 бомб в каждой, и зарегистри- рованы точки попадания. Результаты опытов сведены в таблицу 14.6.3. В таблице буквой I обозначен номер серии; k — номер бомбы в серии. Требуется определить подходящие значения числовых характеристик — математических ожиданий и элементов корреляционных матриц — для системы пяти случайных величин (Хь Х8, Х4, Л5) и системы пяти случайных величин (Гь Г„ Г8. Г4, У5). Решение. Оценки для математических ожиданий найдутся как сред- ние арифметические по столбцам: тг = — 74,3; тг = —19,9; тг = 27,7; тТ = 85,8; т. = 147,0; == — 3,9; itL = — 1,6; m =12,2; mv ==13,3; =9,9. При вычислении элементов корреляционной матрицы мы не будем, как в прежних примерах, пользоваться соотношениями между начальными и центральными моментами; в данном случае ввиду сильно изменяющихся ма- тематических ожиданий пользование этим приемом не даст преимуществ. Будем вычислять оценки для моментов непосредственно по формулам (14.6.2). Для этого вычтем из каждого элемента таблицы 14.6.3 среднее значение соответствующего столбца. Результаты сведем в таблицу 14.6.4.
148J ОЦЕНКИ ДЛЯ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛИЧИН 345 Таблица 14.6.3 Абсцисса X Ордината Y * i 1 2 3 4 5 1 2 1 3 1 4 5 1 —120 -20 2 60 180 —20 —15 — 8 -6 —2 2 —108 —75 —20 20 80 40 60 120 125 130 3 —200 —120 —80 —20 10 —25 -30 —20 —10 2 4 -55 —2 40 120 ' 200 —100 —75 г—35 2 2 5 5 60 100 165 220 -40 -30 —25 -30 -45 6 —240 —202 —140 —88 -30 80 30 25 10 2 7 10 65 120 160 205 14 25 25 30 10 8 -40 0 65 103 170 80 75 60 10 -4 9 —100 -40 —10 55 105 —70 -60 -30 —10 0 10 105 135 190 280 330 2 4 10 12 4 Таблица 14.6.4 г. — т „ xk 1 1 1 2 3 4 1 5 1 1 2 1 1 3 1 4 1 5 1 -45,7 —0.1 —25,7 —25,8 33,0 —16,1 —13,4 —20,2 —19,3 —11,9 2 -33,7 —55,1 —37,7 —65,8 -67,0 43,9 61,6 107,8 111,7 120,1 3 —125,7 —100,1 —107,7 —105,8 —137,0 —21,1 —28,4 —32,2 —23,3 —7,9 4 19,3 17,9 ' 12,3 34,2 53,0 —96,1 —73,4 -47,2 —11,3 —7,9 5 79,3 79,9 72,3 79,2 73,0 —36,1 —28,4 -37,2 -43,3 -54,9 6 -165,7 —182,1 —167,7 —173,8 -177,0 83,9 31,6 12,8 -3,3 —7,9 7 84,3 84,9 92,3 74,2 58,0 17,9 26,6 12,8 16,7 0,1 8 34,3 19,9 37,3 17,2 23,0 83,9 76,6 47,8 -3,3 —13,9 9 —25,7 —20,1 —37,7 -30,8 —42,0 -66,1 —58,4 -42,2 —23,3 —9,9 10 179,3 154,9 162,3 194,2 183,0 5,9 5,6 —2,2 —1,3 —5,9 Возводя эти числа в квадрат, суммируя по столбцам и деля на п — 1=9, получим оценки для дисперсий и средних квадратических отклонений: D г « 104,2.102; = 94,4.102; « 94,3 • 102; Ё>х = 110,2 • 102; DXf = 114,4 • 102; =102; а. =97; о, =97; а, = 105; а _ = 107. £>У1 = 35,5 • 10’; 5у1 = 24,4-102; £>У1 = 23,4 • 102; Ру< = 19,6 • 102; Руз = 20,1 • 102; ау=60; аУ1 = 49; ау>=48; «у< =44; ау<=45. Чтобы найти оценку для корреляционного момента, например, меж- ду величинами и л2, составим столбец попарных произведении чисел,
346 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 стоящих в первом и втором столбцах таблицы 14.6.41). Сложив все эти произведения и разделив сумму на п — 1, получим: = 0,959-10». Деля RXlXi на получим: г,. «0,97. Аналогично находим все остальные элементы корреляционных матриц. Для удобства умножим все элементы обеих матриц моментов на 10~2. По- лучим: 104,2 96,0 98,4 105,1 106,9 94,4 93,2 107,0 101,1 1^л1“ 94,3 102,0 99,2 ’ 110,2 108,2 111,4 1М“ 35,5 27,8 24,4 22,9 21,4 23,4 11,0 8,3 13,0 10,2 17,4 17,2 19,6 19,3 20,1 (Ввиду симметричности матриц они заполнены только наполовину.) Нормированные корреляционные матрицы имеют вид: 1,00 0,97 0,99 0,98 0,98 1,00 0,99 0,99 0,97 1,00 0,98 0,96 1,00 0,97 1,00 1,00 0,94 0,76 0,42 0,31 1,00 0,89 0,59 0,46 1,00 0,81 0Д0 1,00 0,97 1,00 Рассматривая эти матрицы, убеждаемся, что величины (Xh X2t Х3, Х4, Хь) находятся в весьма тесной зависимости, приближающейся к функциональной; величины (F1t />, К3, /4, Г5) связаны, менее тесно, и коэффициенты корре- ляции между ними убывают по мере удаления от главной диагонали корре- ляционной матрицы. 9 Если вычисление производится на арифмометре или клавишной счет- ной машине, то нет смысла выписывать отдельные произведения, а следует непосредственно вычислять суммы произведений, не останавливаясь на про- межуточных результатах.
14Л! ОБРАБОТКА СТРЕЛЬБ 347 14.7. Обработка стрельб у Одной из важных практических задач, возникающих при изучении вопросов стрельбы и бомбометания, является задача обработки резуль- татов экспериментальных стрельб (бомбометаний). Здесь мы будем различать два случая: стрельбу ударными сна- рядами и стрельбу дистанционными снарядами. При стрельбе ударными снарядами рассеивание характеризуется законом распределения системы двух случайных величин: абсциссы и ординаты точки попадания на некоторой плоскости (реальной или воображаемой). При стрельбе дистанционными снарядами рассеивание носит пространственный характер и описывается законом распреде- ления системы трех координат точки разрыва снаряда. Рассмотрим сначала задачу обработки стрельб ударными сна- рядами. Пусть произведено п не- зависимых выстрелов по некото- -------- рой плоской мишени и зареги- стрированы координаты п точек &*уп) попадания (рис. 14.7.1): о ^.у() (*i. 34); (*2. >4); •••; (*я. уя)- Рис. 14.7.1. Предполагая, что закон распределения системы (X. Е) нормаль- ный, требуется найти оценки для его параметров: координат центра рассеивания шх, ту, угла а, определяющего направление главных осей рассеивания Е, и главных с.к.о. Начнем с рассмотрения самого простого случая, когда направле- ние главных осей рассеивания известно заранее. Этот случай часто встречается на практике, так как обычно направление главных осей рассеивания определяется самими условиями стрельбы (например, при бомбометании — направление полета и перпендикулярное к нему; при воздушной стрельбе — направление поперечной скорости цели и перпендикулярное к нему и т. д,). В этом случае задача обработки стрельб сильно упрощается. Зная заранее хотя бы ориентировочно направление главных осей, можно выбрать координатные оси парал- лельно им; в такой системе координат абсцисса и ордината точки попадания представляют собой независимые случайные величины, и их закон распределения., определяется всего четырьмя параметрами: координатами центра рассеивания и главными средними квадра- тическими отклонениями ох, оу. Оценки для этих параметров
348 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 определяются формулами п /»1 Л S xi п (У1— «»)* л —1 (•*/—«г)2 л —1 (14.7.1) Рассмотрим более сложный случай, когда направление главных осей рассеивания заранее неизвестно и тоже должно быть опреде- лено из опыта. В этом случае определению подлежат оценки всех пяти параметров: координат центра рассеивания тх, угла а и главных средних квад- ратических отклонений о (рис. 14.7.2). Оценки для координат центра рассеивания в этом слу- чае определяются так же, как в предыдущем случае, по фор- мулам п п S xt S vi ~ — <-1 • m — ~ (14.7.2) Перейдем к оценке угла а. Предположим, что направления глав- ных осей рассеивания известны, и проведем через точку (тх, ту) главные оси 0$. Оц (рис. 14.7.2). В системе Юц координаты слу- чайной точки (X, У) будут: S = (X — iB,r)cosa4~()'— my)sina, | Н = — (X — »ж) sin a 4-(У — my)cosa. J или E = Xcosa-|- У sin a, | .ц-,. . « j Н = — X sin a 4- Feos a. J Очевидно, величины 8, H будут иметь математические ожидания, равные нулю: М [8] = М [Н] = 0.
14.7] ОБРАБОТКА СТРЕЛЬВ 349 Так как оси О?, O-q— главные оси рассеивания, величины 2, Н независимы. Но для величин, подчиненных нормальному закону, не- зависимость эквивалентна некоррелированности; следовательно, нам достаточно найти такое значение угла а, при котором величины 2, Н не коррелированы. Это значение и определит направление главных осей рассеивания. Вычислим корреляционный момент величин (2, Н). Перемножая равенства (14.7.3) и применяя к их произведению операцию матема- тического ожидания, получим: Лц = М |2Н] = — М [X2] sin a cos a + М ( XY] (cos2 а — sin2 а)+ М [У2] sin а cos а = — -^sin2a(Dx— Dy)4-Kjrycos2a. Приравнивая это выражение нулю и деля обе части на cos 2a, имеем: <14-7Л> Уравнение (14.7.4) даст два значения угла а: и а^ различаю- щиеся на ^*. Эта два Угла 11 определяют направления главных осей рассеивания *)• Заменяя в равенстве (14.7.4) Кху. Dx, Dy их оценками, получим оценку для угла а: Найдем оценки для главных средних квадратических отклоне- ний Для этого найдем дисперсии величин 3, Н, заданных формулами (14.7.3), по теореме о дисперсии линейной функции: = Dx cos2 a + Dy sin2 a + 2Kxy sin a cos a; D = D sin2 a 4- Dv cos2 a — sin a cos a, откуда находим оценки для главных дисперсий: Ьг = Ьх cos2 a Кху sin 2a 4“ Dy sin2 a; Ь^ = Dx sin2 a — Kxy sin 2a 4- Dy cos2 a. *) Заметим, что выражение (14.7.4) совпадает с приведенным в главе 9 выражением (9.2.2) для угла а» определяющего направление осей симметрии эллипса рассеивания. (14.7.5)
350 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 Оценки для главных средних квадратических отклонений выра- зятся формулами: (14.7.6) Выпишем отдельно полную сводку формул для обработки стрельб по плоской мишени в случае, когда направление главных осей рас- сеивания заранее неизвестно. Оценки искомых параметров опре- деляются формулами: ~ 1 а = —arctg (14.7.7) 0$ = V cos2 а /(ж, sin 2 а 4-sin8 а; оч= V Dxsin2a—КЖу sin 2 а cos2 а, где л S (•*< —Мг)(У/ — «у) (14.7.8) В заключение следует заметить, что обработку стрельб по пол- ным формулам (14.7.7) имеет смысл предпринимать только тогда, когда число опытов достаточно велико (порядка многих десятков); только в этом случае угол а может быть. оценен с достаточной точностью. При малом числе наблюдений значение а, полученное обработкой, является в значительной мере случайным. Задачу обработки стрельб дистанционными снарядами мы вдесь рассмотрим только в простейшем случае, когда направление главных осей рассеивания (хотя бы ориентировочно) известно заранее. Как правило, встречающиеся в практике стрельбы дистанционными сна- рядами задачи обработки опытов относятся к этому типу. Тогда можно выбрать координатные оси параллельно главным осям рас- сеивания и рассматривать три координаты точки разрыва снаряда как независимые случайные величины.
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 351 Пусть в результате п независимых выстрелов зарегистрированы координаты п точек разрыва дистанционных снарядов (Хр Ур zx)\ (х2. у2. z2): .... (х„. y„. гп) в системе координат с осями, параллельными главным осям рассеи- вания. Оценки для параметров нормального закона определятся формулами: (14.7.9) На решении задачи обработки стрельб дистанционными снарядами в случае, когда направления главных осей рассеивания заранее не- известны, мы останавливаться не будем, так как на практике эта задача встречается сравнительно редко. 14.8. Сглаживание экспериментальных зависимостей по методу наименьших квадратов К вопросам, связанным с обработкой опытов, разобранным в дан- ной главе, близко примыкает вопрос о сглаживании эксперименталь- ных зависимостей. Пусть производится опыт, целью которого является исследование зависимости некоторой физической величины у от физической вели- чины х (например, зависимости пути, пройденного телом, от времени; начальной скорости снаряда от температуры заряда; подъемной силы от угла атаки и т. д.). Предполагается, что величины х и у связаны функциональной зависимостью: > = (14.8.1) Вид этой зависимости и требуется определить из опыта.
352 ОБРАБОТКА ОПЫТОВ ГГЛ U Предположим, что в результате опыта мы получили ряд экспери- ментальных точек и построили график зависимости у от х (рис. 14.8.1). Обычно экспериментальные точки на таком графике располагаются не совсем правильным образом — дают некоторый «разброс», т. е. обнаруживают случайные отклонения от видимой общей закономер- ности. Эти уклонения связаны с неизбежными при всяком опыте ошибками измерения. Возникает вопрос, как по этим экспериментальным данным наи- лучшим образом воспроизвести зависимость у от х? Известно, что через любые п точек с координатами (xz, yz) всегда можно провести кривую, выражаемую аналитически полино- мом степени (п—1), так, чтобы она в точности прошла через каж- дую из точек (рис. 14.8.2). Однако такое решение вопроса обычно не является удовлетворительным: как правило, нерегулярное поведение экспериментальных точек, подобное изображенному на рис. 14.8.1 и 14.8.2, связано не с объективным характером зависимости у от х. а исключительно с ошибка- У ми измерения. Это легко обнаружить, сравнивая на- блюденные уклонения (раз- брос точек) с примерно из- вестными ошибками изме- рительной аппаратуры. Тогда возникает весьма типичная для практики зада- ча сглаживания экспе- ---------------------------------х риментальной зависимости. Рис. 14 83 Желательно обработать экспериментальные данные так, чтобы по возможности точно отразить общую тенденции? зависимости у от х, но вместе с тем сгладить незакономерные, случайные уклоне- ния, связанные с неизбежными погрешностями самого наблюдения.
14.8) СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 353 Для решения подобных задач обычно применяется расчетный метод, известный под названием «метода наименьших квадратов». Этот метод дает возможность при заданном типе зависимости у=хср(х) так выбрать ее числовые параметры, чтобы кривая у = ср(х) в известном смысле наилучшим образом отображала экспериментальные данные. .Скажем несколько слов о том, из каких соображений может быть выбран тип кривой у = <р(х). Часто этот вопрос решается непосред- ственно по внешнему виду экспериментальной зависимости. Например, экспериментальные точки, изображенные на рис. 14.8.3, явно наводят на мысль о прямолинейной зависимости вида у = ах-\-Ь. Зависи- мость, изображенная на рис. 14.8.4, хорошо может быть предста- влена полиномом второй сте- пени у = ах2 4“ Ьх-f-c. Если речь идет о периодической функции, часто можно вы- брать для ее изображения несколько гармоник триго- нометрического ряда и т. д. Очень часто бывает так, что вид зависимости (линей- ная, квадратичная, показа- тельная и т. д.) бывает из- вестен из физических сооб- ражений. связанных с су- ществом решаемой задачи, а из опыта требуется установить только некоторые параметры этой зависимости. Задачу о рациональном выборе та- ких числовых параметров при данном виде зависимости мы и будем решать в настоящем п°. Пусть имеются результаты п неза- висимых опытов, оформленные в виде простой статистической таблицы (табл. 14.8.1), где I — номер опыта; xt — зна- чение аргумента; у^—соответствующее значение функции. Точки (хр yz) нанесены на график (рис. 14.8.5). Из теоретических или иных соо- бражений выбран принципиальный вид зависимости у=<р (х). Функция у=<р (х) содержит ряд числовых параметров выбрать эти параметры, чтобы кривая Таблица 14.8.1 i xi 1 2 *2 ь • • • ... • • • i xi У> • • • • • в • • • п *п Уп 0» 6» с» •.. Требуется так у = <р(х) в каком-то смысле наилучшим образом изображала зави- симость, полученную в опыте. 23-3015
354 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 Решение этой задачи, как и любой задачи выравнивания или сглаживания, зависит от того, что именно мы условимся считать «наилучшим». Можно, например, считать «наилучшим» такое взаим- ное расположение кривой и экспериментальных точек, при котором максимальное расстояние между ними обращается в минимум; можно потребовать, чтобы в минимум обращалась сумма абсолютных величин отклонений точек от кривой и т. д. При каждом из этих требований мы получим свое решение-задачи, свои значения параметров a, bt с, ... Однако общепринятым при решении подобных задач является так называемый ме- mod наименьших квадра- тов, при котором требова- ние наилучшего согласо- вания кривой ys=<p(x) и экспериментальных точек сводится к тому, чтобы сумма квадратов откло- нений эксперименталь- ных точек от сглаживаю- щей кривой обращалась в минимум. Метод наимень- ших квадратов имеет перед другими методами сглаживания существенные преимущества: во-пер- вых, он приводит к сравнительно простому математическому способу определения параметров а, Ь9 с, во-вторых, он допускает до- вольно веское теоретическое обоснование с вероятностной точки зрения. Изложим это обоснование. Предположим, что истинная зависи- мость у от х в точности выражается формулой у = ср(х); экспери- ментальные точки уклоняются от этой зависимости вследствие неиз- бежных ошибок измерения. Мы уже упоминали о том, что ошибки измерения, как правило, подчиняются нормальному закону. Допустим, что это так. Рассмотрим какое-нибудь значение аргумента Результат опыта есть случайная величина К-, распределенная по нормальному закону с математическим ожиданием <р(х4) и со сред- ним квадратическим отклонением oz, характеризующим ошибку из- мерения. Предположим, что точность измерения во всех точках оди- накова: а1 = <32 = ••• —^п = ^ Тогда нормальный закон, по которому распределяется величина Yi9 можно записать в виде: №>=;йе’ " <14-8-2)
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 355 В результате нашего опыта — ряда измерений—произошло следую- щее событие: случайные величины (Кр К2, ...» /„) приняли сово- купность значений (yv у2, .... у„). Поставим задачу: так подобрать математические ожидания <p(Xj), ^(х^, .... <р(дся), чтобы вероят- ность этого события была максимальна1)* Строго говоря, вероятность любого из событий Yi=ayi, так же как и их совмещения, равна нулю, так как величины Yt непре- рывны; поэтому мы будем пользоваться не вероятностями событий Kz = yz, а соответствующими элементами вероятностей: = (14.8.3) Найдем вероятность того, что система случайных величин Yv У2.....Y„ примет совокупность значений, лежащих в пределах (У<* Yi+dyi) (у=1, 2..........п). Так как опыты независимы, эта вероятность равна произведению элементов вероятностей (14.8.3) для всех значений it —~е 2” <*у,=Л> 1=1 , (14.8.4) g у . где К — некоторый коэффициент, не зависящий от <p(xt). Требуется так выбрать математические ожидания <p(Xi), <р(Хз), ••• .... <р(хя), чтобы выражение (14.8.4) обращалось в максимум* Величина л “2? S [yi-? (*»))* е «-1 'всегда меньше единицы; очевидно, она имеет наибольшее значение, когда показатель степени по абсолютной величине минимален: п 21У« — f (*i)]2=min. Отсюда, отбрасывая постоянный множитель получаем требо- вание метода наименьших квадратов: для того чтобы данная сово- купность наблюденных значений Ур Уа.....У« была наивероятнейшей, нужно выбрать функцию <р(х) так, чтобы сумма квадратов отклонений наблюденных значений у( ом <р(х;) была минимальной'. п 2 1У; —(?(xi)]2 = min. -______________ i=l *) Так называемый «принцип максимального правдоподобия».
356 ОВРАВОТКА ОПЫТОВ (ГЛ. 14 Таким образом обосновывается метод наименьших квадратов, исходя из нормального закона ошибок измерения и требования макси- мальной вероятности данной совокупности ошибок. Перейдем к задаче определения параметров а, Ъ, с.......исходя из принципа наименьших квадратов. Пусть имеется таблица экспери- ментальных данных (табл. 14.8.1) и пусть из каких-то соображений (связанных с существом явления или просто с внешним видом наблю- денной зависимости) выбран общий вид функции у = <р(х). завися- щей от нескольких числовых параметров а. Ь, с, ...; именно эти параметры и требуется выбрать согласно методу наименьших квадратов так. чтобы сумма квадратов отклонений от ?(х{) была минимальна. Запишем у как функцию не только аргумента х, но и параметров'а. Ь, с. ...: у = <р(х; а. Ь. с, ...). (14.8.5) Требуется выбрать а, Ь. с, ... так, чтобы выполнялось условие: 5 (У/ — *?(*,•: в. Ь, с. ...)]2 = min. (14.8.6) /= 1 Найдем значения а, Ъ, с, .... обращающие левую часть выражения (14.8.6) в минимум. Для этого продифференцируем ее по а, Ь, с, ... и приравняем производные нулю: п 2^—а’ ь' с’ Z = 1 2 (у,—? с, (14.8.7) 2[у<—ь> i=l где ,=?а(*р в« Ъ,с,..-значение частной производной функ- ции <р по параметру а в точке •••-аналогично. Система уравнений (14.8.7) содержит столько же уравнений, сколько неизвестных а, Ь, с, ... Решить систему (14.8.7) в общем виде нельзя; для этого необхо- димо задаться конкретным видом функции <р. Рассмотрим два часто встречающихся на практике случая: когда функция <р линейна и когда она выражается полиномом второй сте- пени (параболой).
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 357 1. Подбор параметров линейной функции методом наименьших квадратов В опыте зарегистрирована совокупность значений (хР у^) (1 = 1, 2, .... л; см. рис. 14.8.6). Требуется подобрать по методу наименьших квадратов пара- метры а, b линейной функции и s * Лох* изображающей данную экспери- ментальную зависимость. । Решение. Имеем: >5 I у = <р(х; a, b~) — ax-\-b. । (14.8.8) Л 1 Дифференцируя выражение > । j । (14.8.8) по а и Ъ, имеем: sS [ | I *? _ V PH = v • "7^ : £ * ~te~x' \~dih xi’ d<f _ , ( d<f \ _ . Рис. 14.8.6. ~db ’ (di!,-b Подставляя в формулы (14.8.7), получим два уравнения для опре- деления а и Ь: g [у; — (ах{ + Z>)| Xt= О, Sly;—(ax,-4-*)l = 0. или, раскрывая скобки и производя суммирование, Т — а £ х* — b 2 xk = О, iw] <ж1 п п 5 У/ — « 2 х*—bnss*o. (14.8.9) Разделим оба уравнения (14.8.9) на п: п У w (14.8.10) п п
358 ОБРАБОТКА ОПЫТОВ ГГЛ 14 Суммы, входящие в уравнения (14.8.10), представляют собой не что иное, как уже знакомые нам статистические моменты: ~ а 11 2*1 п 1 = 1 _ п ~ =«;: =«;,дх, и. Подставляя эти выражения в систему (14.8.10), получим: а? ДХ, К] — eaTlX]— 6/п*—0, 1 • ' ’ ' , . . п } (14.8.11) т* — атх — !> = 0. | 7 Выразим Ь из второго уравнения (14.8.11) и подставим в первое: b — т* — ат*; а* ДХ, F]— аа^Х]—(т*— am*)m*=0. Решая последнее уравнение относительно а, имеем: %ДХ. л—тХ (14.8.12) Выражение (14.8.12) можно упростить, если ввести в него не началь- ные, а центральные моменты. Действительно, откуда где Y\ ~ТПхШу = /Ссу» (^ж) —Djc> к* b = my — amxt (14.8.13) (14.8.14) Таким образом, поставленная задача решена, и линейная зависи- мость, связывающая у и х, имеет вид:
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 359 или, перенося т* в левую часть, у — п^^х- nty. (14.8.15) Мы выразили коэффициенты линейной зависимости через централь- ные. а не через начальные вторые моменты только потому, что в таком виде формулы имеют более компактный вид. При практическом примене- нии выведенных формул может оказаться удобнее вычислять моменты Кху и Dx не по формулам (14.8.14), а через вторые начальные моменты: = ---т>г *>:=4—К)2- (14.8.16) Для того чтобы формулы (14.8.16) не приводили к разностям близких чисел, рекомендуется перенести начало отсчета в точку, не слишком далекую от математи- ческих ожиданий /п*, ш*. 2. Подбор параметров параболы второго порядка методом наименьших квадратов В опыте зарегистрированы зна- чения (х{, у4) (I = 1, 2.п; см. рис. 14.8.7). Требуется мето- дом наименьших квадратов подо- брать параметры квадратичной функции — параболы второго по- рядка: у = ах2-j-fixс. соответствующей наблюденной экспериментальной зависимости. Имеем: у = ip(x; а, Ь, с) ах2Ьхс. ^1—1. (д^\ — да ~ *’ \дс)Г~
360 ОБРАБОТКА ОПЫТОВ Подставляя в уравнения (14.8.7), имеем: Ji [У/ “ (вх< + bxi + С)1А = °’ Ji Ьх>+с)] xi=01 Ji [У, ~ (а*? 4- bx .t 4- с)] = 0. или, раскрывая скобки, производя суммирование и деля на п. (14.8.17) п Коэффициенты этой системы также представляют собой статисти- ческие моменты системы двух величин X, Y, а именно: п п S xt S у/ 2^£_ = m:==a;lX1. ±4_ = m;==a:m; 2 х? 2 х? 2 х* -------«;W; El-------a;[XJ; 1=1-----<[XJ; . 2 xiyi 2 Ayi E--------aj jxn; -—Г—= abPV. Г]. Пользуясь этими выражениями для коэффициентов через началь- ные моменты одной случайной величины и системы двух величин,
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 361 можно придать системе уравнений (14,8.7) достаточно компактный вид. Действительно, учитывая, что <Xq[A'] = 1; aJJJX. F] = a*[K| и перенося члены, не содержащие неизвестных, в правые части, при- ведем систему (14.8.17) к виду: ^{X\a^^[X\b^^\X\c^^ JX. Г]. aJ[X] a +a;[W + a;(X] c = a^ 1 \Х. Г]. (14.8.18) Закон образования коэффициентов в уравнениях (14.8.18) нетрудно подметить: в левой части фигурируют только моменты величины X в убывающем порядке; в правой части стоят моменты системы {X, Y). причем порядок момента по X убывает от уравнения к уравнению, а порядок по Y всегда остается первым1). Аналогичными по структуре уравнениями будут определяться коэффициенты параболы любого порядка. Мы видим, что в случае, когда экспериментальная зависимость выравнивается по методу наименьших квадратов полиномом некото- рой степени, то коэффициенты этого полинома находятся решением системы линейных уравнений. Коэффициенты этой системы линейных уравнений представляют собой статистические моменты различных порядков, характеризующие систему величин (X. Y), если ее рас- смотреть как систему случайных величин. Почти так же просто решается задача сглаживания эксперимен- тальной зависимости методом наименьших квадратов в случае, когда сглаживающая функция представляет собой не полином, а сумму про- извольных заданных функций <рх(х), <р2(х), •••• ?*(*) с коэффици- ентами av а2...... У = ?(х; av а2......а,) = k = «Л(*) + a2<|>2(*)+ • • • + «»<?,(«) = S «/?](*)• (14.8.19) / = 1 и когда требуется определить коэффициенты az. !) Решения системы (14.8.18) относительно неизвестных д, 5, с в общем виде мы не приводим, так как это решение слишком громоздко, а на прак- тике обычно удобнее решать систему (14.8.18) не с помощью определителей, а последовательным исключением неизвестных.
362 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 Например, экспериментальную зависимость можно сглаживать тригонометрическим полиномом <р(х; «j, а2, а&, aj= s= аг cos шх -f- а2 sin <ох + а3 cos 2шх + а4 sin 2шх или линейной комбинацией показательных функций <р(х; аи а2. а2е^-\- а3е#, и т. д. В случае, если функция задается выражением типа (14.8.19), коэф- фициенты av а2......а, находятся решением системы k линейных уравнений вида: S {у» —kl?l(^)+fl2?2(^)4- ••• + «*<Р4 Of/)]} <Pl(*i) = 0. /=S 1 2j {У/~ «2^2 (•*/)+ ••• = /=1 S {У/ —lel<Pl(*l)H-e2<P2(-*<)+ ••• = iss 1 Выполняя почленное суммирование, имеем: п п п «1 3 Ifl (*/)]24- «2 S %(*«) <Р1 (*/)+••• + в* S ?* (*/) fl (•*/) « / = 1 /«=1 /=1 П = S ут (•?/). п П rt «1 2 <Р1 (*/) ?2(*/)+ «2 S 1?2 (*<)]2+ •••-+- в* S <Р* (*<) 4>2(*i) = i=l i=l i=l n — S ym (*/)• i = l n n n 0г 5 fl (*i) f* W -I- a2 S ?2 (*<) f* W + • • . + «1 2 If» (*/)F = i=l i=l n = Sym(*/)«
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 363 или, короче, k п п S a, s ?1 (*<)?>(*/) = S (*<)• к п п 2 «, 2 ?2 (*/) <р/ (*z) ~ 2 у<?2 (•*/)• (14.8.20) k п п 2 2 ?* (*/) ?>(*<)=2 м»(4 Систему линейных уравнений (14.8.20) всегда можно решить и определить таким образом коэффициенты av а2, .... at. Сложнее решается задача о сглаживании методом наименьших квадратов, если в выражение функции у = <р(х; а, Ъ, с, ...) число- вые параметры а, Ь, с,... входят нелинейно. Тогда решение си- стемы (14.8.7) может оказаться сложным и трудоемким. Однако и в этом случае часто удается получить решение задачи с помощью сравни- тельно простых приемов. Проиллюстрируем идею этих приемов на самом простом примере функции, нелинейно зависящей толь- ко от одного параметра а (напри- мер, y=se~ajci или у = sin ах, или У —Имеем: у = ср(х, а), (14.8.21) где а—параметр, подлежащий под- бору методом наименьших квадратов для наилучшего сглаживания задан- ной экспериментальной зависимости (рис. 14.8.8). Будем решать задачу следующим образом. Зададимся рядом зна- чений параметра а и для каждого из них найдем сумму квадратов отклонений у( от <р(хР а). Эта сумма квадратов есть некоторая функция а\ обозначим ее £(а): 2(a)=2lyz—Ф(*Р «)]’. /в 1 Нанесем значение Е(в) на график (рис. 14.8.9). То значение а, для которого кривая 2(a) имеет минимум, и вы- бирается как подходящее значение параметра а в выражении (14.8.21).
364 ОБРАБОТКА ОПЫТОВ ТТЛ. 14 Совершенно так же, в принципе, можно, не решая уравнений (14.8.7), подобрать совокупность * двух параметров (а, £), удовлетворяющую принципу наименьших квадратов; работа при этом лишь незначительно усложнится и сведется к построению не одного, а нескольких гра- фиков (рис. 14.8.10); при * этом придется искать со- 4(4 вокупность значений а, Ь9 обеспечивающую мини- мум минимального зна- чения суммы квадратов отклонений Е(а, Ь). Л=а8+Ъ Ю т ж D Рис. 14.8.11, Пример1. В опыте исследована зависимость глубины проникания Л тела в преграду от удельной энер- гии £ (энергии, приходя- s щейся на квадратный сан- тйметр площади соударе- т ния). Экспериментальные данные приведены в табли- це 14.8.2 и на графике (рис. 14.8.11). Требуется по методу наименьших квадратов подобрать и построить пря- мую» изображающую зависимость Л от Решение.' Имеем: 2 8/ 2 _ I 2137 ~ Т 274 ~ 01 t с 13 “ 13 ~ 164,4’ 13 та 13 ~21»1. Для обработки по начальным моментам переносим начало координат в близкую к средней точку: fo = 150; Ло-20.
14.81 СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 365 Получаем новую таблицу значений величин: g' OI g —• ggj h ^SS h — h$ (табл. 14.8.3). Определяем моменты: 4(8'1==-4з~ ~6869; Dj « 6869 — (mJ, )2 = 6869 — (164,4 —150)2 = 6662; «;, a'i - -Чо— «842; ’ ю Таблица 14.8.2 / Ъ^кгм/см)* Aj (мм) 1 41 4 2 50 8 3 81 10 4 104 14 5 120 16 6 139 20 7 154 19 8 180 23 9 208 26 10 241 30 11 250 31 12 269 36 13 301 37 Таблица 14.8.3 i I —150 ft'«Л,-20 1 —109 —16 2 —100 —12 3 —69 —10 .4 —46 5 —30 - 4 6 -11 - 0 7 4 -1 8 30 3 9 ~ 58 6 10 91 10 11 100 11 12 119 16 13 151 17 *zl —mJ. mJ.-842-(164,4—150) (21,1 — 20) я «842—16 = 826. Уравнение прямой имеет вид: А” «л “-7?-(8—mJ). ИЛИ h — 21,1 - 0,124 (g —164,4). (14.8.22) Прямая (14.8.22) показана на рис. 14.8.11. Пример 2. Произведен ряд опытов по измерению перегрузки авиа- ционной бомбы, проникающей в грунт, при различных скоростях встречи. Полученные значения перегрузки АГ в зависимости от скорости v приведены в таблице 14.8.4. Построить по методу наименьших квадратов квадратичную зависи- мость вида: N=* а о2-|-6 v-|-с, наилучшим образом согласующуюся с экспериментальными данными.
366 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 Решение. В целях удобства обработки удобно изменить единицы из- мерения так, чтобы не иметь дела с многозначными числами; для этого можно значения v выразить-в сотнях м/сек (умножить на Ю"2), a N—в тысячах единиц (умножить на 10'3) и всю обработку провести в этих условных единицах. Находим коэффициенты уравнений (14.8.18). В принятых условных единицах: «;k]=V- «зк]-4г- i -^^ = 25,92; 14 Таблица 14.8.4 i v (м!сек) /V 1 120 540 2 131 590 3 140 670 4 161 760 5 174 850 6 180 970 7 200 1070 8 214 1180 9 219 1270 10 241 1390 11 250 1530 12 268 1600 13 281 1780 14 300 2030 2^ = 10,60; 14 63,49 14 2879 «Т [v] = m*v----2,056; я = 4,535; «с, и», wi—“i^i=m*N=‘-^i4-e = 1^з.в1,159; 14 < i k. *1 - "Si— = -ТГ- “2.629; в;1к,лПв_'_— 88,02 -= 6,287. 14 имеет вид: 25,92а + 10,60* 4-4,535с = 6,287, Ю,60а 4- 4,535* 4- 2,056с = 2,629, 4,535а 4- 2,056* 4- с « 1,159. Решая эту систему, находим: а « 0,168; * « 0,102; с ® 0,187. На рис. 14.8.12 нанесены экспериментальные точки и зависимость Система уравнений (14.8.18) построенная по методу наименьших квадратов. Примечание. В некоторых случаях может потребоваться провести кривую у == <р (х) так, чтобы она точно проходила через некоторые заданные заранее точки. Тогда некоторые из числовых параметров а, *, с, ..., входя- щих в функцию у « f (л), могут быть определены из этих условий.
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 367 Например, в условиях примера 2 может понадобиться проэкстраполиро- вать зависимость W (v) на малые значения v, при этом естественно провести параболу второго порядка так, чтобы она проходила через начало координат (т. е. нулевой скорости встречи соответствовала нулевая перегрузка). Тогда, естественно, с «= 0 и зависимость 7V (и) приобретает вид: N = av2 + bvt а система уравнений для определения а и b будет иметь вид: 25,92а + 10,60^ «х 6,287, , 10,60а 4-4,5356 = 2,629. между обкладками конденсатора от времени t зарегистрирована на участке времени 10 сек с интервалом 1 сек. Напряжение измеряется с точностью до 5 вольт. Результаты измерений приведены в таблице 14.8.5. Согласно теоретическим данным, зависимость напряжения от времени должна иметь вид: и^и^. Основываясь на опытных данных, подобрать методом наименьших квадратов значение параметра а. Решение. По таблицам функции е~* убеждаемся, что е~х доходит при- близительно до 0,05 при х « 3; следовательно, коэффициент а должен иметь
368 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 Таблица 14.8.5 1 t- (сек) utw 1 (сек) U. (е) 0 100 7 6 15 2 75 8 7 10 з 2 55 9 8 10 4 з ~ 40 10 9 5 5 4 30 11 10 5 6 5 20 порядок ОД Задаемся в районе а = 0,3 несколькими значениями а: а = 0,28; 0,29; 0,30; 0,31; 0,32; 0,33 и вычисляем для них значения функции в точках (табл. 14.8.6). В нижней строке таблицы 14.8.6 помещены значе- ния суммы квадратов отклонений 2 (а) в зависимости от а. Рис. 14.8.13. График функции S (а) приведен на рис. 14.8.13. Из графика видно, что значение а, отвечающее минимуму, приближенно равно 0,307. Таким образом,
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 369 по методу наименьших квадратов наилучшим приближением к опытным дан- ным будет функция U . График этой функции вместе с экспери- ментальными точками дан на рис. 14.8.14. Таблица 14.8.6 i а=0,28 а=0,29 а =0,30 а=0,31 а=0,32 asst0,33 1 0 100,0 100,0 100,0 100,0 100,0 100,0 2 1 75,5 74,8 74,1 73,3 72,6 71,9 3 2 57,1 56,0 54,9 53,8 52,7 51,7 4 3 43,2 41,9 40,7 39,5 38,3 37,2 5 4 32,6 31,3 30,1 28,9 27,8 26,7 6 5 24,6 23,5 22,3 21,2 20,2 19,2 7 6 18,6 17,6 16,5 15,6 14,7 13,8 8 7 14,1 13,1 12,2 11,4 10,6 9,9 9 8 10,7 9,8 9,1 8,4 7,7 7,1 10 9 8,0 7,4 6,7 6,1 5,6 5,1 И 10 6,1 5,5 5,0 4,5 4,1 3,7 2(a) 83,3 40,3 17,4 13,6 25,7 51,4
ГЛАВА 15 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ 15.1. Понятие о случайной функции До сих пор в нашем курсе теории вероятностей основным пред- метом исследования были случайные величины. Случайная величина характерна тем. что она в результате опыта принимает некоторое одно, заранее неизвестное, но единственное значение. Примерами таких случайных величин могут служить: абсцисса точки попада- ния при выстреле; ошибка радиодальномера при одном, единичном измерении дальности; горизонтальная ошибка наводки при одном выстреле и т. д. Ограничиваясь рассмотрением подобных отдельных случайных ве- личин, мы изучали случайные явления как бы «в статике», в ка- ких-то фиксированных постоянных условиях отдельного опыта. Однако такой элементарный подход к изучению случайных явле- ний в ряде практических задач является явно недостаточным. На практике часто приходится иметь дело со случайными величинами, непрерывно изменяющимися в процессе опыта. Примерами таких слу- чайных величин могут служить: ошибка радиодальномера при непре- рывном измерении меняющейся дальности; угол упреждения при не- прерывном прицеливании по движущейся цели; отклонение траекто- рии управляемого снаряда от теоретической в процессе управления или самонаведения. Такие случайные величины, изменяющиеся в процессе опыта, мы будем в отличие от обычных случайных величин называть случай- ными функциями. Изучением подобных случайных явлений, в которых случайность проявляется в форме процесса, занимается специальная отрасль тео- рии вероятностей — теория случайных функций (иначе — теория слу- чайных или стохастических процессов). Эту науку можно образно назвать «динамикой случайных явлений». Теория случайных функций — новейший раздел теории вероятно- стей, развившийся, в основном, за последние два-три десятилетия.
15.П ПОНЯТИЕ О СЛУЧАЙНОЙ ФУНКЦИИ 371 В настоящее время эта теория продолжает развиваться и совершен- ствоваться весьма быстрыми темпами. Это связано с непосредственными требованиями практики, в частности с необходимостью решения ряда технических задач. Известно, что за последнее время в технике все большее распространение получают системы с автоматизированным управлением. Соответственно все ббльшие требования предъявляются к теоретической базе этого вида техники — к теории автоматиче- ского управления. Развитие этой теории невозможно без анализа ошибок, неизбежно сопровождающих процессы управления, которые всегда протекают в условиях непрерывно воздействующих случайных возмущений (так называемых «помех»). Эти возмущения по своей природе являются случайными функциями. Для того чтобы рацио- нально выбрать конструктивные параметры системы управления, необходимо изучить ее реакцию на непрерывно воздействующие слу- чайные возмущения, а единственным аппаратом, пригодным для такого исследования, является аппарат теории случайных функций. В данной главе мы познакомимся с основными понятиями этой теории и с общей постановкой ряда практических задач, требующих применения теории случайных функций. Кроме того, здесь будут изложены общие правила оперирования с характеристиками случайных функций, аналогичные правилам оперирования с числовыми характе- ристиками обычных случайных величин. Первым из основных понятий, с которыми нам придется иметь дело, является само понятие случайной функции. Это понятие на- столько же шире и богаче понятия случайной величины, насколько математические понятия переменной величины и функции шире и богаче понятйя постоянной величины. Вспомним определение случайной величины. Случайной величиной называется величина, которая в результате опыта может принять то или иное значение, неизвестно заранее—какое именно. Дадим ана- логичное определение случайной функции. Случайной функцией называется функция, -которая в результате опыта может принять тот или иной конкретный вид, неизвестно за- ранее — какой именно. Конкретный вид, принимаемый случайной функцией в результате опыта, называется реализациёй случайной функции. Если над слу- чайной функцией произвести группу опытов, то мы получим группу или «семейство» реализаций этой функции. Приведем несколько примеров случайных функций. Пример 1. Самолет-бомбардировщик на боевом курсе имеет теоретически постоянную воздушную скорость V. Фактически его скорость колеблется около этого среднего номинального значения и представляет собой случайную функцию времени. Полет на боевом курсе можно рассматривать как опыт, в котором случайная функция V (/) принимает определенную реализацию (рис. 15.1.1), От опыта
372 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ (ГЛ. 15 к опыту вид реализации меняется. Если на самолете установлен самопишущий прибор, то он в каждом полете запишет новую, отлич- ную от других реализа- цию случайной функции. В результате нескольких полетов можно получить семейство реализаций слу- чайной функции V(0 (рис. 15.1.2). Пример 2. При на- ведении управляемого сна- ряда на цель ошибка на- ведения ₽(0 представ- ляет собой отклонение центра массы снаряда от теоретической траекто- рии, т. е. случайную функ- цию времени (рис. 15.1.3). В том же опыте слу- чайными функциями вре- мени являются, например, перегрузка снаряда N(fi, угол атаки а(0 и т. д. Пример 3. При стрельбе с самолета по самолету перекрестие прицела в течение некоторого времени должно непрерывно совмещаться с целью — следить за ней. Операция слежения за целью сопровождается ошибками — так называемыми ошибками на- водки (рис. 15.1.4). Горизонтальная и вертикальная ошибки наводки в процессе прицеливания непрерывно меняются и представляют собой две случайные функции X (0 и У (0. Реализации этих случайных функ-
15Л] ПОНЯТИЕ О СЛУЧАЙНОЙ ФУНКЦИИ 373 ций можно получить в результате дешифровки снимков фотопулемета, фотографирующего цель в течение всего процесса слежения. Число примеров случайных функций, встречающихся в технике, можно было бы неограниченно увеличивать. Действительно, в любом случае, когда мы имеем дело с непрерывно работающей системой (системой измерения, управления, наведения, регулирования), при анализе точности работы этой системы нам приходится учитывать наличие случайных воздействий (помех). Как сами помехи, так и вызванная ими реакция системы представляют собой случайные функ- ции времени. До сих пор мы говорили только о случайных функциях, аргу- ментом которых является время t. В ряде задач практики встречаются случайные функции, зависящие не от времени, а от других аргумен- тов. Например, характеристики прочности неоднородного стержня могут рассматриваться как случайные функции абсциссы сечения х. Температура воздуха в различных слоях атмосферы может рассмат- риваться как случайная функция высоты Н. На практике встречаются также случайные функции, зависящие не от одного аргумента, а от нескольких. Например, аэрологические данные, характеризующие состояние атмосферы (температура, давле- ние, ветер), представляют собой в общем случае случайные функции четырех аргументов: трех координат х, у. z и времени t. В данном курсе мы будем рассматривать только случайные функ- ции одного аргумента. Так как этим аргументом чаще всего является время, будем обозначать его буквой /. Кроме того» условимся, как правило, обозначать случайные функции большими буквами {X (/), Y (t)9 ...) в отличие от неслучайных функций (х(/), У (О» • • •)• Рассмотрим некоторую случайную функцию X (t). Предположим, что над ней произведено п независимых опытов, в результате кото- рых получено л реализаций (рис. 15.1.5). Обозначим их соответ- ственно номеру опыта х, (/), х2 (О» • • • • *п (О-
374 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ (ГЛ. 15 Каждая реализация, очевидно, есть обычная (неслучайная) функ- ция. Таким образом, в результате каждого опыта случайная функция X (0 превращается в обычную, неслучайную функцию. Зафиксируем теперь некоторое значение аргумента t и посмотрим, во что превратится при этом случайная функция X (/). Очевидно, она превратится в случайную величину в обычном смысле слова. Условимся называть эту случайную величину сечением случайной функции, соответствующим данному t. Если провести «сечение» се- мейства реализаций при данном t (рис. 15.1.5), мы получим п зна- чений, принятых случайной величиной X (/) в п опытах. Мы видим, что случайная функция совмещает в себе черты слу- чайной величины и функции. Если зафиксировать значение аргумента, она превращается в обычную случайную величину; в результате каждого опыта она превращается в обычную (неслучайную) функцию. В ходе дальнейшего изложения мы часто будем попеременно рас- сматривать одну и ту же функцию X (0 то как случайную функцию, то как случайную величину, в зависимости от того, рассматри- вается ли она на всем диапазоне изменения t или при его фиксиро- ванном значении. 15,2. Понятие о случайной функции как расширение понятия о системе случайных величин. Закон распределения случайной функции Рассмотрим некоторую случайную функцию X (0 на определенном отрезке времени (рис. 15.2.1). Строго говоря, случайную функцию мы не можем изобра- жать с помощью кривой на графике: начертить мы можем лишь ее X(t) Рис. 15.2.1. конкретные реализации. Однако в целях наглядности можно позволить себе условно изобразить на чертеже случайную функцию X (t) в виде кривой, понимая под этой кривой не конкретную реализацию^ а всю
15.2) ЗАКОН РАСПРЕДЕЛЕНИЯ СЛУЧАЙНОЙ ФУНКЦИИ 375 совокупность возможных реализаций X (/). Эту условность мы будем отмечать тем, что кривую, символически изображающую случайную функцию, будем проводить пунктиром. Предположим, что ход изменения случайной функции регистри- руется с помощью некоторого прибора, который не записывает слу- чайную функцию непрерывно, а отмечает ее значения через определен- ные интервалы — в моменты времени tx. t2, ..., tm. Как было указано выше, при фиксированном значении / случай- ная функция превращается в обычную случайную величину. Следо- вательно, результаты записи в данном случае представляют собой систему т случайных величин: *(Л). .....Х(^. (15.2.1) Очевидно, при достаточно высоком темпе работы регистрирующей аппаратуры запись случайной функции через такие интервалы даст достаточно точное представление о ходе ее изменения. Таким обра- зом, рассмотрение случайной функции можно с некоторым прибли- жением заменить рассмотрением системы случайных величин (15.2.1). По мере увеличения т такая замена становится все более и более точной. В пределе число значений аргумента — и соответственно число случайных величин (15.2.1) — становится бесконечным. Таким образом, понятие случайной функции можно рассматривать как естественное обобщение понятия системы случайных величин на слу- чай бесконечного (несчетного) множества величин, входящих в систему. Исходя из такого толкования случайной функции попытаемся От- ветить на вопрос: что же должен представлять собой закон рас- пределения случайной функции? Мы знаем, что закон распределения одной случайной величины есть функция одного аргумента, закон распределения системы двух величин — функция двух аргументов и т. д. Однако практическое пользование в качестве вероятностных характеристик функциями многих аргументов настолько неудобно, что даже для систем трех- четырех величин мы обычно отказываемся от пользования законами распределения и рассматриваем только числовые характеристики. Что касается закона распределения случайной функции, который пред- ставляет собой функцию бесчисленного множества аргументов, то такой закон в лучшем случае можно чисто формально записать в какой-либо символической форме; практическое же пользование подобной характеристикой, очевидно, совершенно исключено. Можно, однако, для случайной функции построить некоторые вероятностные характеристики, аналогичные законам распределения. Идея построения этих характеристик заключается в следующем. Рассмотрим случайную величину X (/) — сечение случайной функ- ции в момент t (рис. 15.2.2). Эта случайная величина, очевидно»
376 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ (ГЛ. 15 обладает законом распределения, который в общем случае зависит от t. Обозначим его /(х, t). Функция /(х, t) называется одномер- ным законом распределения случайной функции X (t). Очевидно, функция /(х. f) не является полной, исчерпывающей характеристикой случайной функции X (0> Действительно, эта функ- ция характеризует только закон распределения X(t) для данного, хотя и произвольного t; она не отвечает на вопрос о зависи- мости случайных величин X (t) при различных t. С этой точки зре- ния более полной характеристикой случайной функции X (/) является так называемый двумерный закон распределения: /(Хр х2; tv t2). (15.2.2) Это — закон распределения системы двух случайных величин X (/,), X (t2), т. е. двух произвольных сечений случайной функции X (t). Однако и эта характеристика в общем случае не является исчерпы- вающей; еще более полной характеристикой был бы трехмерный закон: /(хр х2, х3; t2, ^з). (15.2.3) Очевидно, теоретически можно неограниченно увеличивать число аргументов и получать при этом все более подробную, все более исчерпывающую характеристику случайной функции, но оперировать со столь громоздкими характеристиками, зависящими от многих аргу- ментов, крайне неудобно. Поэтому при исследовании законов рас- пределения случайных функций обычно ограничиваются рассмотрением частных случаев, где для полной характеристики случайной функции достаточно, например, знания функции (15.2.2) (так называемые «про- цессы без последействия»). В пределах настоящего элементарного изложения теории случайных функций мы вовсе не будем пользоваться законами распределения, а ограничимся рассмотрением простейших характеристик случайных функций, аналогичных числовым характеристикам случайных величин.
15.3] ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ФУНКЦИЙ 377 15.3. Характеристики случайных функций Мы имели много случаев убедиться в том, какое большое значе- ние в теории вероятностей имеют основные числовые характеристики случайных величин: математическое ожидание и дисперсия — для одной случайной величины, математические ожидания и корреляцион- ная матрица — для системы случайных величин. Искусство пользо- ваться числовыми характеристиками, оставляя по возможности в сто- роне законы распределения, — основа прикладной теории вероятно- стей. Аппарат числовых характеристик представляет собой весьма гибкий и мощный аппарат, позволяющий сравнительно просто решать многие прак- тические задачи. Совершенно аналогичным аппаратом пользуются и в теории случайных функций. Для случайных функций также вводятся простейшие основные характеристики, аналогичные числовым ха- рактеристикам случайных ве- личин, и устанавливаются правила действий с этими характеристиками. Такой Рис. 15.3.1, аппарат оказывается доста- точным для решения мно- гих практических задач. В отличие от числовых характеристик случайных величин, пред- ставляющих собой определенные числа, характеристики случайных функций представляют собой в общем случае не числа, а функции. Математическое ожидание случайной функции X(t) определяется следующим образом. Рассмотрим сечение случайной функции X(t) при фиксированном t. В этом сечении мы имеем обычную случайную величину; определим ее математическое ожидание. Очевидно, в общем случае оно зависит от /, т. е. представляет собой некоторую функ- ЦИЮ тх (f) .= М [X (0J. (15.3.1) Таким образом, математическим ожиданием случайной функции X(t) называется неслучайная функция mx(t), которая при каждом значении аргумента t равна математическому ожиданию соответствующего сечения случайной функции. По смыслу математическое ожидание случайной функции есть некоторая средняя функция, около которой различным образом варьируются конкретные реализации случайной функции.
378 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ (ГЛ. 1S На рис. 15.3.1 тонкими линиями показаны реализации случайной функции, жирной линией — ее математическое ожидание. Аналогичным образом рпределяется дисперсия случайной функции. Дисперсией случайной функции X(f) называется неслучай- ная функция Dx (/). значение которой для каждого t равно дисперсии соответствующего сечения случайной функции'. ~ Dx(0 = D[X(O]. (15.3.2) XtM mr. (t) t 0 Рис. 15.3.3. (t) Рис. 15.3.2. Дисперсия случайной функции при каждом t характеризует раз- брос возможных реали- заций случайной функции относительно среднего, иными словами, «степень случайности» случайной функции. Очевидно, Dx(t) есть неотрицательная функция» Извлекая из нее квадрат- ный корень, получим функцию ax(t) — среднее квадратическое отклоне- ние случайной функции: (15.3.3) Математическое ожи- дание и дисперсия пред- ставляют собой весьма важные характеристики случайной функции; од- нако для описания основ- ных особенностей слу- чайной функции этих характеристик недоста- точно. Чтобы убедиться в этом, рассмотрим две случайные функции Хг (0 — и X2(0. наглядно изо- браженные семействами реализаций на рис. 15.3.2 и 15.3.3. У случайных функций Xx(fy и X2(t) примерно одинаковые мате- матические ожидания и дисперсии; однако характер этих случайных X,(t)
15.31 ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ФУНКЦИЙ 379 функций резко различен. Для случайной функции (рис. 15.3.2) характерно плавное, постепенное изменение. Если, например, в точке t случайная функция Хх($) приняла значение, заметно превышающее среднее, то весьма вероятно, что и в точке tf она также примет значение больше среднего. Для случайной функции Xx(t) характерна ярко выраженная зависимость между ее значениями при различных t. Напротив, случайная функция X2(t) (рис. 15.3.3) имеет резко коле- бательный характер с неправильными, беспорядочными колебаниями. Для такой случайной функции характерно быстрое затухание зави- симости между ее значениями по мере увеличения расстояния по t между ними. Очевидно, внутренняя структура обоих случайных процессов со- вершенно различна, но это различие не улавливается ни математи- ческим ожиданием, ни дисперсией; для его описания необходимо ввести специальную характеристику. Эта характеристика называется корреляционной функцией (иначе — автокорреляционной функ- цией). Корреляционная функция характеризует степень зависимости между сечениями случай- ной функции, относящи- мися к различным t. Пусть имеется слу- чайная функция X (t) (рис. 15.3.4); рассмотрим два ее сечения, относя- щихся к различным мо- ментам: t и т. е. две случайные величины X (/) и X (/'). Очевидно, что при близких значениях t и t' величины X (t) и X (tr) связаны тесной зависимостью: если величина X (/) приняла какое-то значение, то и величина X (?) с большой вероятностью примет значение, близкое к нему. Очевидно также, что при увеличении интервала между сечениями f, tf зависи- мость величин X (t) и X (?) вообще должна убывать. Степень зависимости величин X (0 и X может быть в зна- чительной мере охарактеризована их корреляционным моментом; очевидно, он является функцией двух аргументов t и Эта функ- ция и называется корреляционной функцией. Таким образом, корреляционной функцией случайной функ- ции X (0 называется неслучайная функция двух аргументов которая при каждой паре значений t. t' равна корреляционному моменту соответствующих сечений случай- ной функции; Кх (/, f) = М [X (0 X (/')], (15.3.4) ЛГУ *lt) *7“* V о t t Рис. 15.3.4.
380 ОСНОВНЫЕ понятия ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ (ГЛ. 15 где X (О = X (/) - тх (t). X (Г) = X (Г) — тх (t'). Вернемся к примерам случайных функций Xx(t) и X2(t) (рис. 15.3.2 и 15.3.3). Мы видим теперь» что при одинаковых мате- матических ожиданиях и дисперсиях случайные функции Хх (/) и X2(t) имеют совершенно различные корреляционные функции. Кор- реляционная функция случайной функции А\(0 медленно убывает по мере увеличения промежутка (/, t')'9 напротив» корреляционная функ- ция случайной функции X2(t) быстро убывает с увеличением этого промежутка. Выясним, во что обращается корреляционная функция Kx(t^ £'), когда ее аргументы совпадают. Полагая /' =/, имеем: Кх (/, О = М 1(Х (0 )2] = Dx (/). (15.3.5) т. ё. при t'*szt корреляционная функция обращается в дис- Персию случайной функции. Таким образом» необходимость в дисперсии как отдельной харак- теристике случайной функции отпадает: в качестве основных харак- Рис. 15.3.5. теристик случайной функции достаточно рассматривать ее математическое ожидание и корреляционную функцию. Так как корреляционный момент двух случайных вели- чин X(f) и Х(/') не зависит от последовательности, в кото- рой эти величины рассматри- ваются, то корреляционная функция симметрична относи- тельно своих аргументов, т. е. не меняется при переменё аргу- ментов местами: . Kx(t. (15.3.6) Если изобразить корреляционную функцию Kx(t, t') в виде по- верхности, то эта поверхность будет симметрична относительно вер- тикальной плоскости Q, проходящей через биссектрису угла tOtf (рис. 15.3.5). Заметим, что свойства корреляционной функции естественно вытекают из свойств корреляционной матрицы системы случайных величин. Действительно, заменим приближенно случайную функ- цию X (0 системой т случайных величин X (/,), X (/2).....X (tm). При увеличении т и соответственном уменьшении промежутков между
15.3] ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ФУНКЦИИ 381 аргументами корреляционная матрица системы, представляющая собой таблицу о двух входах, в пределе переходит в функцию двух не- прерывно изменяющихся аргументов, обладающую аналогичными свой- ствами, Свойство симметричности корреляционной матрицы относи- тельно главной диагонали переходит в свойство симметричности корреляционной функции (15.3.6). По главной диагонали корреля- ционной матрицы стоят дисперсии случайных величин; аналогично при tf = t корреляционная функция Kx(tt t') обращается в диспер- сию Dx (t). На практике, если требуется построить корреляционную функцию случайной функции X (/). обычно поступают следующим образом: задаются рядом равноотстоящих значений аргумента и строят корре- ляционную матрицу полученной системы случайных величин. Эта матрица есть не что иное, как таблица значений корреляционной функции для прямоугольной сетки значений аргументов на пло- скости (Л /'). Далее, путем интерполирования пли аппроксимации молено построить функцию двух аргументов Kx(t, t'). Вместо корреляционной функции Kx(t* tf) можно пользоваться нормированной корреляционной функцией: <15-3'7> которая представляет собой коэффициент корреляции величин X (t)9 X (t'). Нормированная корреляционная функция аналогична норми- рованной корреляционной матрице системы случайных величин. При нормированная корреляционная функция равна единице: х (Л ° [’г (0)« “ [’ж (01* “ 1 ’ (15,3,8) Выясним, как меняются основные характеристики случайной функции при элементарных операциях над нею: при прибавлении не- случайного слагаемого и при умножении на неслучайный множитель. Эти неслучайные слагаемые и множители могут быть как постоян- ными величинами, так в общем случае и функциями t. Прибавим к случайной функции X (t) неслучайное слагаемое ср (/)• Получим новую случайную функцию: Г(0«Х(0+?(0. (15.3.9) По теореме сложения математических ожиданий: (0 = тх (О -4- <? (О. (15.3.10) т. е. при прибавлении к случайной функции неслучайного слагаемого к ее математическому ожиданию прибавляется то же неслучайное слагаемое.
382 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. IS Определим корреляционную функцию случайной функции Y [f)i «= М [(У (/) -«,(/)) (У (С - ту (Г) )] => »лкх(о+?(о-жж«-?(О)(^+?(п-«,(п-т(П)1= = Л4[(Х(0 —л»х(0)(Х(П—тж(*'))1 = ад о. (15.3.11) т. е. от прибавления неслучайного слагаемого корреляцион- ная функция случайной функции не меняется. Умножим случайную функцию X (f) на неслучайный множи- тель ср(0: Г(0 = Т(ОХ(0. (15.3.12) Вынося неслучайную величину <р(0 за знак математического ожида- ния, имеем: ту (i) = М [Т (0 X (01 = ср (0 тх (0, (15.3.13) т. е. при умножении случайной функции на неслучайный мно- житель ее математическое ожидание умножается на тот же множитель. Определяем корреляционную функцию: Ку (/. К) = М [У (0 У (Щ = М [(У (0—ту (0 ) (У (О—«у (П )1 = = М [Т (0 ср (С (X (0 - тх (0 ) (X (К)—тх (Г))] = в<р(Оср(ОКж(^ П (15.3.14) т. е. при умножении случайной функции на неслучайную функ- цию ср (0 ее корреляционная функция умножается на ф(0<р(О« В частности, когда ср(0 = с (не зависит от 0, корреляционная функция умножается на с3. Пользуясь выведенными свойствами характеристик случайных функций, можно в ряде случаев значительно упростить операции с ними. В частности, когда требуется исследовать корреляционную функцию или дисперсию случайной функции, можно заранее перейти от нее к так называемой центрированной функции'. X(f)^X(t) — mx(t). (15.3.15) Математическое ожидание центрированной функции тождественно равно нулю, а ее корреляционная функция совпадает с корреляцией-
1541 ОПРЕДЕЛЕНИЕ ХАРАКТЕРИСТИК СЛУЧАЙНОЙ ФУНКЦИИ ИЗ ОПЫТА 383 ной функцией случайной функции X (/): t') = M[X(t)X(t')\=Kx(t. Г). (15.3.16) При исследовании вопросов, связанных с корреляционными свой- ствами случайных функций, мы в дальнейшем всегда будем перехо- дить от случайных функций к соответствующим центрированным функциям, отмечая это значком ° вверху знака функции. Иногда, кроме центрирования, применяется еще нормирование случайных функций. Нормированной называется случайная функция вида: (15-3,17) Корреляционная функция нормированной случайной функции XN(t) равна = о. (15.3.18) а ее дисперсия равна единице. 15.4. Определение характеристик случайной функции из опыта Пусть над случайной функцией X (t) произведено п независимых опытов (наблюдений) и в результате получено п реализаций случай- ной функции (рис. 15.4.1). Требуется найти оценки для характеристик случайной функции: ее математического ожидания */пх(0» дисперсии Dx(t) и корреля- ционной функции Kx(t. /'). Для этого рассмотрим ряд сечений случайной функции для мо- ментов времени /1» ^2» • • •» >
384 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 15 и зарегистрируем значения, принятые функцией X(t) в эти моменты времени. Каждому из моментов tv будет соответствовать/1 значений случайной функции. Значения tv ...» tm обычно задаются равноотстоящими; вели- чина интервала между соседними значениями выбирается в зависи- мости от вида экспериментальных кривых так, чтобы по выбранным точкам можно было восстановить основной ход кривых. Часто бывает так, что интервал между соседними значениями t задается независимо от задач обработки частотой работы регистрирующего прибора (на- пример, темпом киноаппарата). Зарегистрированные значения X(t) заносятся в таблицу, каждая строка которой соответствует определенной реализации, а число столб- цов равно числу опорных значений аргумента (табл. 15.4.1). Таблица 15.4.1 ri Л 'к • . . • .• • х.(0 I х> (0) х, (0) Xl (tk) . . . Xi (Л) . • . •*1 (6n) х2(0 I х2 (0) М*>) • • • xHO) . . . •*2 (^m) • 1 МО | МО) XI (Ы МО) . . . MO) . . . хяЦ) | •*л(^1) Хп (0) Xn (tk) . • • x„(0) . . . xn (fm) В таблице 15.4.1 в /-й строке помещены значения случайной функций, наблюденной в /-й реализации (Z-м опыте) при значениях аргумента tv t2, .... tm. Символом хД/*) обозначено значение, соот- ветствующее l-й реализации в момент Полученный материал представляет собой не что иное, как ре- зультаты п опытов над системой т случайных величин А’(О, *(/2), ХЦт\ и обрабатывается совершенно аналогично (ом. п° 14.3). Прежде всего находятся оценки для математических ожиданий по формуле 2 xi <**> = ----> (15.4.1)
W.5] МЕТОДЫ ОПРЕДЕЛЕНИЯ ХАРАКТЕРИСТИК 385 затем — для дисперсий " - £[Xi(4)-m,(W Dx {tk) = —----—j---------- (15.4.2) и, наконец, для корреляционных моментов 2 (tk) - тх (/*)] [х,- (/z) - тх (tt)\ Kx(.tk, ti) = ~----------^1----------------• (15.4.3) В ряде случаев бывает удобно при вычислении оценок для ди- сперсий и корреляционных моментов воспользоваться связью между начальными и центральными моментами и вычислять их по формулам; (15.4.4) При пользовании последними вариантами формул, чтобы избежать разности близких чисел, рекомендуется заранее перенести начало отсчета по оси ординат поближе к математическому ожиданию. После того, как эти характеристики вычислены, можно, пользуясь рядом значений гпх (Q, тх (/2)> ...» тх (tm)t построить зависимость /пх(/) (рис. 15.4.1). Аналогично строится зависимость Dx(t). Функция двух аргументов Kx(t, t') воспроизводится по ее значениям в прямо- угольной сетке точек. В случае надобности все эти функции аппро- ксимируются какими-либо аналитическими выражениями. 15.5. Методы определения характеристик преобразованных случайных функций по характеристикам исходных случайных функций В предыдущем п° мы познакомились с методом непосредственного определения характеристик случайной функции из опыта. Такой метод применяется далеко не всегда. Во-первых, постановка специальных опытов, предназначенных для исследования интересующих нас слу- чайных функций, может оказаться весьма сложной и дорогостоящей. Во-вторых, часто нам требуется исследовать случайные функции» характеризующие ошибки приборов, прицельных приспособлений, си- стем управления и т. д., еще не существующих, а только проекти- руемых или разрабатываемых. При этом обычно исследование этих ошибок и предпринимается именно для того, чтобы рационально вы- брать конструктивные параметры системы так, чтобы они приводили 25-3015
386 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ ГГЛ. и к минимальным ошибкам. Ясно, что при этом непосредственное иссле- дование случайных функций, характеризующих работу системы, неце- лесообразно, а в ряде случаев вообще невозможно. В таких случаях в качестве основных рабочих методов применягдтся не прямые, а кос- венные методы исследования случайных функций. Подобными кос- венными методами мы уже пользовались при исследовании случайных величин: ряд глав нашего курса — гл. 10, 11, 12 — был посвящен нахождению законов распределения и числовых характеристик слу- чайных величин косвенно, по законам распределения и числовым ха- рактеристикам других случайных величин, с ними связанных. Поль- зуясь совершенно аналогичными методами, можно определять харак- теристики случайных функций косвенно, по характеристикам других случайных функций, с ними связанных. Развитие таких косвенных методов и составляет главное содержание прикладной теории случай- ных функций. Задача косвенного исследования случайных функций на практике обычно возникает в следующей форме. Имеется некоторая динамическая система Л; под «динамической системой» мы понимаем любой прибор, прицел, счетно-решающий механизм, систему автоматического управления и т. п. Эта Система может быть механической, электрической или содержать любые дру- гие элементы. Работу системы будем представлять себе следующим образом: на вход системы непрерывно поступают какие-то входные данные; система перерабатывает их и непрерывно выдает некоторый результат. Условимся называть поступающие на вход системы данные «воздействием», а выдаваемый результат «реакцией» системы на это воздействие. В качестве воздействий могут фигурировать изменяю- щиеся напряжения, угловые и линейные координаты каких-либо объек- тов, сигналы или команды, подаваемые на систему управления, и т. п. Равным образом и реакция системы может вырабатываться в той или иной форме: в виде напряжений,, угловых перемещений и т. д. Например, для прицела воздушной стрельбы воздействием является угловая координата дви- жущейся цели, непре- рывно измеряемая в про- цессе слежения, реак- цией— угол упреждения. Рассмотрим самый простой случай: когда на вход системы А подается только одно воздействие, представляющее собой функцию времени х (/); реакция системы на это воздействие есть другая функция времени у (/). Схема работы системы А условно изображена на рис. 15.5.1. Будем говорить, что система А осуществляет над входным воз- действием некоторое преобразование, в результате которого
1Б.51 МЕТОДЫ ОПРЕДЕЛЕНИЯ ХАРАКТЕРИСТИК 387 функция x(t) преобразуется в другую функцию y(f). Запишем это преобразование символически в виде: у(О = Л{х(0|. (15.5.1) Преобразование А может быть любого вида и любой сложности. В наиболее простых случаях это, например, умножение на заданный множитель (усилители, множительные механизмы), дифференцирование 41ли интегрирование (дифференцирующие или интегрирующие устрой- ства). Однако на практике системы, осуществляющие в чистом виде такие простейшие преобразования, почти не встречаются; как правило, работа системы описывается дифференциальными уравнениями, и пре- образование А сводится к решению дифференциального уравнения, связывающего воздействие x(t) с реакцией y(t). При исследовании динамической системы в первую очередь решается основная задача: по заданному воздействию x(t) определить реакцию системы у(/). Однако для полного исследования системы и оценки ее технических качеств такой элементарный подход является недоста- точным. В действительности воздействие x(t) никогда не поступает на y(t) вход системы в чистом виде: оно всегда искажено некоторыми слу- чайными ошибками (воз- мущениями), в результате Y(t) ~ которых на систему фак- - тически воздействует не заданная функция х (/)» z а случайная функция X(/); соответственно этому си- рис 15,5 2. стема вырабатывает в ка- честве реакции случайную функцию Y также отличающуюся от теоретической реакции у (О (рис. 15.5.2). Естественно возникает вопрос: насколько велики будут случайные искажения реакции системы при наличии случайных возмущений на ее входе? И далее: как следует выбрать параметры системы для того, чтобы эти искажения были минимальными? Решение подобных задач не может быть получено методами клас- сической теории вероятностей; единственным подходящим математи- ческим аппаратом для этой цели является аппарат теории случайных функций. Из двух поставленных выше задач, естественно, более простой является первая — прямая — задача. Сформулируем ее следующим образом. На вход динамической системы А поступает случайная функ- ция X (t)\ система подвергает ее известному преобразованию, в ре- зультате чего на выходе системы появляется случайная функция: У(0 = ЛИ(0}. (15.5.2)
388 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 15 Известны характеристики случайной функции X (/): математиче- ское ожидание и корреляционная функция. Требуется найти анало- гичные характеристики случайной функции Y (t). Короче: по задан- ным характеристикам случайной функции на входе динамической си- стемы найти характеристики случайной функции на выходе. Поставленная задача может быть решена совершенно точно в одном частном, но весьма важном для практики случае: когда преобразо- вание А принадлежит к классу так называемых линейных преоб разе- ваний и соответственно система А принадлежит к классу линейных систем. Содержание этих понятий будет пояснено в следующем п°. 15.6. Линейные и нелинейные операторы. Оператор динамической системы При изложении теории преобразования случайных функций мы будем пользоваться широко применяемым в математике и технике понятием оператора. Понятие оператора является обобщением понятия функции. Когда мы устанавливаем функциональную связь между двумя переменными у их и пишем: у = /(х), (15.6.1) то под символом f мы понимаем правило, по которому заданному значению х приводится в соответствие вполне определенное значе- ние у. Знак f есть символ некоторого преобразования, которому нужно подвергнуть величину х, чтобы получить у. Соответственно виду этого преобразования функции могут быть линейными и нели- нейными, алгебраическими, трансцендентными и т. д. Аналогичные понятия и соответствующая символика применяются в математике и в тех случаях, когда преобразованию подвергаются не величины, а функции. Рассмотрим некоторую функцию x(f) и установим определенное правило А, согласно которому функция х (t) преобразуется в другую функцию у(/). Запишем это преобразование в следующем виде: у(О = Д{х(О}. (15.6.2) Примерами подобных преобразований могут быть, например, диф- ференцирование: dx(t} .._Rqv У(0 = -^л> (15.6.3) интегрирование: t у (/) = J* х (т) dx, (15.6.4) о и т. д. Правило Л, согласно которому функция х (/) преобразуется в функцию у (/), мы будем называть оператором-, например, мы
15.6] ЛИНЕЙНЫЕ И НЕЛИНЕЙНЫЕ ОПЕРАТОРЫ 389 будем говорить: оператор дифференцирования, оператор интегриро- вания, оператор решения дифференциального уравнения и т. д. Определяя оператор, мы рассматривали только преобразование функции x(t) в другую функцию у того же аргумента t. Следует заметить, что такое сохранение аргумента при определении опера- тора вовсе не является обязательным: оператор может преобразовы- вать функцию x(t) в функцию другого аргумента у($), например: ъ y(s)= f <f(t, s)x(t)dt, (15.6.5) a - ' . где ср (f, s) — некоторая функция, зависящая, помимо аргумента еще и от параметра $. Но так как при анализе ошибок динамических систем наиболее естественным аргументом является время /, мы здесь ограничимся рас- смотрением операторов, преобразующих одну функцию аргумента t в другую функцию того же аргумента. Если динамическая система преобразует поступающую на ее вход функцию x(t) в функцию у(0* у(/) = Л{х(О}. то оператор А называется оператором динамической системы. В более общем случае на вход системы поступает не одна, а несколько функций; равным образом на выходе системы могут появляться несколько функций; в этом случае оператор системы пре- образует одну совокупность функций в другую. Однако в целях простоты изложения мы рассмотрим здесь лишь наиболее элементар- ный случай преобразования одной функции в другую. Преобразования или операторы, применяемые к функциям, могут быть различных типов. Наиболее важным для практики является класс так называемых линейных операторов. Оператор L называется линейным однородным, если он обла- дает следующими свойствами: 1) к сумме функций оператор может применяться почленно: L {х» (0+х2 (01 =£{х1(0}+ £{х2(0}; (15.6.6) 2) постоянную величину с можно выносить за знак оператора: L{cx(t)}=cL{x(t)}. (15.6.7) Из второго свойства/ между прочим, следует, что для линейного однородного оператора справедливо свойство £{0} = 0, (15.6.8) т. е. при нулевом входном воздействии реакция системы равна нулю.
390 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 13 Примеры линейных однородных, операторов: 1) оператор дифференцирования: у(/) = -5Г-: 2) оператор- интегрирования: t •У(0 = J x(t)rfr; о 3) оператор умножения на определенную функцию <р(/): у(/) = ?(/)х(0; 4) опёратор интегрирования с заданным «весом» <р(0: t У(0 = f X(x)<f (x)dt О и т. д. Кроме линейных однородных операторов, существуют еще линей- ные неоднородные операторы. Оператор L называется линейным неоднородным, если он со- стоит из линейного однородного оператора с прибавлением некото- рой вполне определенной функции <р(/): L {х (/)} = Ц {х (/)} + ¥ (0. (15.6.9) где £ft — линейный однородный оператор. Примеры линейных неоднородных операторов: t 2) у(0 = f х(т)<р(т) dk + <?!(/), о 3) y(0 = Ti(0-v(0+?2(0. где <р (0, <pt (£), <р2 (/):— вполне определенные функция, а х (/) — пре- образуемая оператором функция. В математике и технике широко применяется условная форма записи операторов, аналогичная алгебраической символике. Такая - символика в ряде случаев позволяет избегать сложных преобразова- ний и записывать формулы в простой и удобной форме. Например, оператор дифференцирования часто обозначают буквой р*. d р~ dt ’ помещаемой в виде множителя перед выражением, подлежащим диф- ференцированию. При этом запись У(0=/>*(0
15.6] ЛИНЕЙНЫЕ И НЕЛИНЕЙНЫЕ ОПЕРАТОРЫ 391 равносильна записи Двойное дифференцирование обозначается множителем р2: и т. д. Пользуясь подобной символикой, в частности, очень удобно за- писывать дифференциальные уравнения. Пусть, например, работа динамической системы А описывается линейным дифференциальным уравнением с постоянными коэффи- циентами, связывающими реакцию системы у(/) с воздействием x(t). В обычной форме записи это дифференциальное уравнение имеет вид: d"y(O , dn~'y(t) , , dy(t) t . dmx(t) . . . . . dx(t) . . = Ьт + bm-l ~ dtm-\ L +•••+*! M (0. (15.6.10) €4» €4 4- L4» В символической форме это уравнение может быть записано в виде: (апРп + e»-!/’""’1 + • • • + <НР + «о) У (О = =0ягР'в4-*т-1^-14- ... Ч-*1Р+*о)*(Э. d . . где Р = ~^ — оператор дифференцирования. Обозначая для краткости полиномы относительно р9 входящие в правую и левую части, Л (Р) = «аРя + «Л-1Р'”1 + • • • + а\Р + а0, Вт(р) = Ьтр'п-^Ьгв_1р^-+. ... +blP+b0. запишем уравнение в еще более компактной форме: Л (р) У (0 = Вт (р) х (/). (15.6.11) Наконец, формально разрешая уравнение (15,6.11) относи- тельно у(/), можно символически записать оператор решения линей- ного дифференциального уравнения в «явном» виде: = (15.6.12) Пользуясь аналогичной символикой, можно записать в оператор- ной форме и линейное дифференциальное уравнение с переменными
392 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ (ГЛ. 15 е коэффициентами. В обычной форме это уравнение имеет вид: ... =". от +’>.-< от "У,.?-!0 +•.•+»,(<> +», v) х(п. (15.6.13) Обозначая многочлены относительно р, коэффициенты которых • зависят от /. Ап (р, t) = ап (/) р* + а„_! (t) р”-' + • • • + (/) р + а0 (/). Вт (р. t) = bm (0 р- -4- Ът_х (0 + bx Юр + Ьо ю, можно записать оператор дифференциального уравнения в виде: У(0== Х(А О Х(0‘ (15.6.14) В дальнейшем мы по мере надобности будем пользоваться такой символической формой записи операторов. Встречающиеся в технике динамические системы часто описываются линейными дифференциальными уравнениями. В этом случае, как нетрудно убедиться, оператор системы является линейным. Динамическая система, оператор которой является линейным, назы- вается линейной динамической системой. В противоположность линейным операторам и системам рассматри- ваются системы и операторы нелинейные. Примерами нелинейных операторов могут служить t у(/) = х2(О. y(0 = J А?3(т)^т, у (/) ==sin х(/), о а также решение нелинейного дифференциального уравнения, хотя бы у'(0+ * cos у (/) = *(/). Динамическая система, оператор которой не ярляется линейным, называется нелинейной системой. На практике линейные системы встречаются очень часто. В связи с линейностью этих систем к анализу их ошибок может быть с большой эффективностью применен аппарат теории случайных функций. Подобно тому как числовые характеристики линейных функ- ций обычных случайных величин могут быть получены по числовым характеристикам аргументов, характеристики случайной функции на выходе линейной динамической системы могут быть определены, если известны оператор системы и характеристики случайной функции на ее входе.
15.7] ЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ 393 Еще чаще, чем линейные системы, на практике встречаются системы не строго линейные, но в известных пределах допускающие линеари- зацию. Если случайные возмущения на входе системы достаточно малы, то практически любая система может рассматриваться — в пре- делах этих малых возмущений — как приближенно линейная, подобно тому как при достаточно малых случайных изменениях аргументов практически любая функция может быть линеаризована. j Прием приближенной линеаризации дифференциальных уравнений широко применяется в теории ошибок динамических систем. В дальнейшем мы будем рассматривать только линейные (или линеаризуемые) динамические системы и соответствующие им линей- ные операторы. 15.7. Линейные преобразования случайных функций Пусть на вход линейной системы с оператором L воздействует случайная функция X (/). причем известны ее характеристики: мате- матическое ожидание mx(t) и корреляционная функция Kx(tt t'). , Реакция системы представляет собой случайную функцию Y (f)=L{X (f)}. (15.7.1) Требуется найти характеристики случайной функции Y (t) на выходе системы: ту(/) и Ky(t, tf). Короче: по характеристикам слу- чайной функции на входе линейной системы найти характеристики случайной функции на выходе. Покажем сначала, что можно ограничиться решением этой задачи только для однородного оператора L. Действительно, пусть опера- тор L неоднороден и выражается формулой £И(0}=£оИ(О}+ф(О. (15.7.2) где Lq—линейный однородный оператор, ср (0 — определенная неслу- чайная функция. Тогда ту (0= MILO И(/)}]+<?(О. (15.7.3) т. е. функция <р(£) просто прибавляется к математическому ожида- нию случайной функции на выходе линейной системы. Что же касается корреляционной функции, то, как известно, она не меняется от при- бавления к случайной функции неслучайного слагаемого. Поэтому в дальнейшем изложении под «линейными операторами» будем разуметь только линейные однородные операторы. Решим задачу об. определении характеристик на выходе линей- ной системы сначала для некоторых частных видов линейных операторов.
394 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ [ГЛ. 15 1. Интеграл от случайной функции Дана случайная функция X (t) с математическим ожиданием тх (/) и корреляционной функцией Kx(t, tf). Случайная функция Y (t) свя- зана с X (/) линейным однородным оператором интегрирования: t Y(t) = f X (x)dx. (15.7.4) О Требуется найти характеристики случайной функции Y (/): my(t) и Ky(t. Г). Представим интеграл (15.7.4) как предел суммы: t Y(t)= f X(x)dx = lim V (15.7.5) J Дт->0 “ ’S и применим к-равенству (15.7.5) операцию математического ожида- ния. По теореме сложения математических ожиданий имеем: my(t) = M[Y(t)] = lim У Л1[Х(О]Дт = Z Дт->0 " t = lim У тх (тх) Дт = f тх (х) dx!). (15.7.6) Дт->0 ~ % Итак, * t . my(/) = Jwix(T)dT. (15.7.7) О т. е. математическое ожидание интеграла от случайной функ- ции равно интегралу от ее математического ожидания. Иными словами: операцию интегрирования и операцию математического ожи- дания можно менять местами. Это и естественно, так как операция интегрирования по своей природе не отличается от операции сум- мирования, которую, как мы раньше убедились, можно менять местами с операцией математического ожидания. Найдем корреляционную функцию /Су(/, t'). Для этого перейдем к центрированным случайным функциям: X (0 = X (о - тх (0; Y (о = Y (0 - ту (0. Нетрудно убедиться, что t Y(t) = fX(x)dt. (15.7.8) _______________ о *) При этом мы предполагаем, что математическое ожидание предела равно пределу .от математического ожидания. На практике мы, как правило, имеем дело с функциями, для которых такая перестановка возможна.
15.71 ЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ 395 , По определению корреляционной функции, K,(t, Г)==А1[Г(/)Г(П]. где t - г = / X($dv, Y(t') = f X(t')ch'i). (15.7.9) 0 0 Перемножим выражения (15.7.9): t e Y (t) Y(t) = fx (t) dxf X(?')dr'. (15.7.10) 0 0 Нетрудно убедиться, что произведение двух интегралов в правой части формулы (15.7.10) равно двойному интегралу t v f f XixyX^'ydtdz'i (15.7.11) о о Действительно, в связи с тем, что подынтегральная функция в инте- грале (15.7.11) распадается на два множителя, из которых первый зависит только от т, второй —только от т', двойной интеграл (15.7.11) распадается на произведение двух однократных интегралов (15.7.10). Следовательно. ’ t v Г(/)Г(Г) = j* J X(x)X^')dxdxf. (15.7.12) о о Применяя к равенству (15.7.12) операцию математического ожи- дания и меняя ее в правой части местами с операцией интегрирова- ния, получим: t г Ky(t, t') = M[Y(t)V'(t')l = f f M[^(T)X(e)]dtde, о о или окончательно: t е Ky-(t, Хх(т, x')dTdt'. 0 0 (15.7.13) Таким образом, для того чтобы найти корреляционную функцию интеграла от случайной функции, нужно дважды проинтегри- ровать корреляционную функцию исходной случайной функции: сначала по одному аргументу, затем — по другому. 0 Как известно, в определенном интеграле переменная интегрирования может быть обозначена любой буквой; в данном случае удобно обозначить ее т и V соответственно.
396 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ (ГЛ. 15 2. Производная от случайной функции Дана случайная функция X (t) с математическим ожиданием тх (/) и корреляционной функцией Kx(t, t'). Случайная функция Y (t) свя- зана со случайной функцией X (4) линейным однородным оператором дифференцирования: (15.7.14) Требуется найти my(t) и Ky(t. tf). Представим производную в виде предела: /(/)= lim ^ + Ар-^(0 ; (15.7.15) Д/->0 Применяя к равенству (15.7.15) операцию математического ожи- дания, получим: ту (/) = М IY (/)] ~ lim (* + Afl — (О dmx(f) х Д/->0 Итак, = (15.7.16) т. е. математическое ожидание производной от случайной функции равно производной от ее математического ожидания. Следовательно, операцию дифференцирования, как и операцию инте- грирования, тоже можно менять местами с операцией математического ожидания. Для определения Ку(Л /') перейдем к центрированным случайным функциям Y (0 и X (/); очевидно, у(0==**р_. (15.7.17) По определению Ky(t. t') = M[Y(t)Y (/')]. Подставим вместо Y (/) и Y (tf) их выражения: ^.0=^4^]- Представим выражение под знаком математического ожидания в виде второй смешанной частной производной: <**(0 = d2X(t)X(t') . аъллы dt dt' dt dt' \ • * J Мы доказали, что математическое ожидание производной случай- ной функции равно производной от математического ожидания, т. е. О См. сноску *) на стр. 394.
16.71 ЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ 397 знаки дифференцирования и математического ожидания можно менять местами. Следовательно, «,«• Л = *1 [|П ]=л I Л- от х о = д2 =--51дёК^'^' <15-7-19) Таким образом, К,it. <-) = (15.7.20) Итак, чтобы найти корреляционную функцию производной, нужно дважды продифференцировать корреляционную функцию исходной случайной функции: сначала по одному аргументу, затем — по другому. Сравнивая правила нахождения математического ожиданий и кор- реляционной функции для двух рассмотренных нами линейных одно- родных операторов, мы видим, что они совершенно аналогичны, а именно: для нахождения математического ожидания преобразованной случайной функции тот же линейный оператор применяется к мате- матическому ожиданию исходной случайной функции; для нахождения корреляционной функции тот же линейный оператор применяется дважды к корреляционной функции исходной случайной функции. В первом частном случае это было двойное интегрирование, во вто- ром— двойное дифференцирование. Можно доказать, что такое правило является общим для всех линейных однородных операторов1). Мы здесь сформулируем это общее правило без доказательства. Если случайная функция X (t) с математическим ожиданием тх (/) и корреляционной функцией Kx(t> t') преобразуется линейным одно- родным оператором L в случайную функцию К (0 = £ {*(/)}, то для нахождения математического ожидания случайной функции Y (f) нужно применить тот же оператор к математическому ожиданию случайной функции X (/): my(t)=L{mx(t)\, (15.7.21) а для нахождения корреляционной функции нужно дважды применить тот же оператор. к корреляционной функции случайной функции X (f), сначала по одному аргументу, затем — по другому: Ky(t. t') = LwLin[Kx(t. /)}• (15.7.22) В формуле (15.7.22) значки (/). (/') у знака оператора L указы- вают, по какому аргументу он применяется. 1) См., например, В. С. Пугачев, Теория случайных функций и ее применение к задачам автоматического управления, Физматгиз, 1960.
398 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ [ГЛ. 15 Во многих задачах практики нас, в конечном счете, интересует не корреляционная функция Ky(t, t') на выходе линейной системы, а дисперсия Dy (/), характеризующая точность работы системы в усло- виях наличия случайных возмущений. Дисперсию Dy(f) можно н^йти, зная корреляционную функцию: ру(/) = Ky(tt /). (15.7.23) При этом нужно подчеркнуть, что, как правило, для определения дисперсии на выходе линейной системы недостаточно знать дисперсию на ее входе, а существенно важно знать корреляционную функцию. Действительно, линейная система может совершенно по-разному реагировать на случайные возмущения, поступающие на ее вход, в зависимости от того, какова внутренняя структура этих случайных возмущений; состоят ли они, например, по преимуществу из высоко- частотных или низкочастотных колебаний. Внутренняя же структура случайного процесса описывается не его дисперсией, а корреляцион- ной фукцией. Приме р. На вход дифференцирующего механизма поступает случайная функция Х(0 с математическим ожиданием и корреляционной функцией где Dx—постоянная дисперсия случайной функции Х(/). Определить математическое ожидание и дисперсию на выходе системы. Решение. Случайная функция на выходе системы (реакция) связана с воздействием X (t) оператором дифференцирования; Применяя общие правила, имеем: «у (0 ж* (0 = cos ft Ку (ЛГ) “П-2“ ~ W Полагая Г = /, имеем: Dy(f)~2D& или, замечая, что Dy (/у не зависит от /, Dy^2D^ Итак, дисперсия на выходе дифференцирующего механизма зависит не только от дисперсии Dx на входе, но также и от коэффициента а, характе- ризующего быстроту затухания корреляционной связи между сечениями случайной функции А (О при возрастании промежутка между ними. Если коэффициент а мал, корреляционная связь затухает медленно, случайная функция изменяется со временем сравнительно плавно, и, естественно, диф- ференцирование такой функции приводит к сравнительно малым ошибкам. Напротив, если коэффициент а велик, корреляционная функция убывает быстро; в составе случайной функции преобладают резкие, беспорядочные
15.8} СЛОЖЕНИЕ СЛУЧАЙНЫХ функций 399 высокочастотные колебания; естественно, дифференцирование такой функции приводит к большим случайным ошибкам. В таких случаях обычно прибе- гают к сглаживанию дифференцируемой функции, т. е. так меняют оператор системы, чтобы он давал меньшие случайные ошибки на выходе. 15.8. Сложение случайных функций Во многих задачах практики мы встречаемся с тем, что на вход динамической системы поступает не одна случайная функция X (/). а две или более случайные функции, каждая из которых связана с действием отдельного возмущающего фактора. Возникает задача сложения случайных функций, точнее — задача определения характе- ристик суммы по характеристикам слагаемых. Эта задача решается элементарно просто, если две складываемые случайные функции независимы (точнее, некоррелированны) между собой. В общем же случае для ее решения необходимо знание еще однсй характеристики—так называемой взаимной корреляционной функции (иначе — корреляционной функции связи). Взаимной корреляционной функцией двух случайных функций X (t) и Y(t) называется неслучайная функция двух аргументов t и которая при каждой паре значений /, t' равна корреляционному моменту соответствующих сечений случайной функции X (/) и слу- чайной функции Y (/)> Rxy (t, f) = М [X(t) Y (f)]. (15.8.1) Взаимная корреляционная функция, так же как и обычная кор- реляционная функция, не изменяется при прибавлении к случайным функциям любых неслучайных слагаемых, а следовательно, и при центрировании случайных функций. Из определения взаимной корреляционной функции вытекает сле- дующее ее свойство: Rxy(t. t') = Ryx(t', t). (15.8.2) Вместо функции Rxy(t> f) часто пользуются нормированной взаимной корреляционной функцией: (15-8-3) Если взаимная корреляционная функция равна нулю при всех значе- ниях Л t't то случайные функции X (t) и Y (t) называются некорре- лированными (несвязанными). На практике обычно суждение о некоррелированности случайных функций составляют не на основании равенства нулю взаимной кор- реляционной функции, а, наоборот, взаимную корреляционную функцию полагают равной нулю на основании физических соображений, свиде- тельствующих о независимости случайных функций.
400 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ [ГЛ. 15 Пусть, например, два самолета обстреливают наземную цель; обозначим X (0, Y (t) углы пикирования первого и второго самолетов в процессе выполнения боевой операции. Если самолеты заходят на цель поодиночке, естественно считать случайные функции X (t) и Y (t) некоррелированными; если же маневр выполняется самолетами сов- местно. причем один из них является ведущим, а другой — ведомым, очевидно наличие корреляционной связи между функциями X (0 и Y (t). Вообще, если из физических соображений, связанных с существом решаемой задачи, вытекает наличие зависимости между фигурирую- щими в задаче случайными функциями, то их взаимные корреляционные функции должны быть обследованы. Зная математические ожидания и корреляционные функции двух случайных функций X (0 и Y (t), а также их взаимную корреляцион- ную функцию, можно найти характеристики с/ммы этих двух слу- чайных функций: Z(t) = X(t)+Y(t). (15.8.4) По теореме сложения математических ожиданий: mz(0==/nx(04-my(0. (15.8.5) т. е. при сложении двух случайных функций их математи- ческие ожидания складываются- - Для определения корреляционной функции Kz(tt t') перейдем к центрированным случайным функциям Z (0, X (t), Y (f). Очевидно, 2(0 = Х(04-Г(0. (15.8.6) По определению корреляционной функции Kz (Л /') = м [Z(0 z (/')] = , = м 1(Х(0+У(0)(^(П+ У (*'))! = = м IX (о X (П1+м [Y(t) Y (/')!+ М [X (0 Y (f)l + М {X (t') Y(0]. или Kz(f, t') = Kx(t* n + П + П + О- (15.8.7) Формула (15.8.7) аналогична формуле (10.2.7) для дисперсии суммы случайных величин. В случае, когда случайные функции X (0 и Y (0 некоррелиро- ванны, Rxy(t, /') = 0, и формула (15.8.7) принимает вид: • Kz(t. t') = Kx(t9 + t'). (15.8.8) т. e. при сложении некоррелированных случайных функций их корреляционные функции складываются. Выведенные формулы могут быть обобщены на случай произволь- ного числа слагаемых. Если случайная функция X (0 есть сумма п
15.8] СЛОЖЕНИЕ СЛУЧАЙНЫХ ФУНКЦИЙ 401 случайных функций: *(0 = 2^(1), (15.8.9) 1 = 1 то ее математическое ожидание выражается формулой (15.8.10) i = l * а ее корреляционная функция — формулой п кх а. о = 2 к*, (t. п + s rx x (t. n, ' (15.8.11) ,i=l 1 i' где суммирование распространяется на все возможные размещения индексов I и j попарно. В случае, когда все случайные функции Xf(f) некоррелированны, формула (15.8.11) превращается в теорему сложения корреляцион- ных функций: п Kx(t, t') = ^Kx (t, tf), (15.8.12) 1=1 1 т. e. корреляционная функция суммы взаимно некоррелирован- ных случайных функций равна сумме корреляционных функций слагаемых. Формула (15.8.12) аналогична теореме сложения дисперсий для обычных случайных величин. Частным случаем сложения случайных функций является сложение случайной функции со случайной величиной. Рассмотрим случайную функцию X (t) с характеристиками mx(t) и Kx(t, f) и случайную величину Y с математическим ожиданием и дисперсией Dy. Предположим, что случайная функция X (/) и слу- чайная величина Y некоррелированны, т. е. при любом t M[X(t) Г] = 0. Сложим случайную функцию X (/) со случайной величиной У; получим случайную функцию Z(t) = X (0+Г. (15.8.13) Определим ее характеристики. Очевидно, mz(t) = mx(t)-\- ту. (15.8.14) Чтобы найти Kz(t, /')» пользуясь теоремой сложения корреляцион- ных функций (15.8.8), рассмотрим случайную величину Y как частный случай случайной функции, не меняющейся во времени, и найдем ее корреляционную функцию: Ку (/, /') = М [У (О Y (/')] = М [У2] = Dy. (15.8.15)
402 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 15 Применяя формулу (15.8.8), получим: K2(t. t') = Kx(t, n + т. е. при прибавлении к случайной функции некоррелированной с нею случайной величины к корреляционной функции при- бавляется постоянное слагаемое, равное дисперсии этой слу- чайной величины* 15.9. Комплексные случайные функции интерпретировать как случайную При практическом применении математического аппарата теории случайных функций часто оказывается удобцым записывать как сами случайные функции, так и их характеристики не в действительной, а в комплексной форме. В свя- • зи с этим необходимо дать определение комплексной слу- чайной величины и комплекс- ной случайной функции. Комплексной случайной ве- личиной называется случайная величина вида: , • Z = X-\-lY, (15.9.1) где X, Y — действительные слу- чайные величины; / = —1 — мнимая единица. Комплексную случайную ве- личину можно геометрически точку Z на плоскости хОу (рис. 15.9.1). Для того чтобы аппарат числовых характеристик был применим и к комплексным случайным величинам, необходимо обобщить основ- ные понятия математического ожидания, дисперсии и корреляционного момента на случай комплексных случайных величин. Очевидно, эти обобщения должны быть сделаны так, чтобы в частном случае, когда К = 0и величина Z действительна, они сводились к обычным опре- делениям характеристик действительных случайных величин. Математическим ожиданием комплексной случайной вели* чины Z = X-\-iY называется комплексное число тг = тх + imr (15.9.2) Это есть некоторое среднее значение величины Z или, геометрически, средняя точка mz, вокруг которой происходит рассеивание случайной точки Z (рис. 15.9.1).
15.9] КОМПЛЕКСНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ 403 Дисперсией комплексной случайной величины называется математическое ожидание квадрата модуля соответствующей центрированной величины: Dz=J4[|Z|2], (15.9.3) где Z = Z — mz. Геометрически дисперсия комплексной случайной величины есть не что иное, как среднее значение квадрата расстояния от случайной точки Z до ее математического ожидания mz (рис. 15.9.1). Эта вели- чина характеризует разброс случайной точки Z около ее среднего положения. Выразим дисперсию комплексной случайной величины через дис- персии ее действительной и мнимой частей. Очевидно, Z = Z — mz = X-^iY — тх — imy — X -\-lY\ отсюда Dz = Л4 []Z|2] = М [Л2+ Г2] = М [X2] + М [Г2] или DZ = DX + Dy, (15.9.4) т. е. дисперсия комплексной случайной величины равна сумме дисперсий ее действительной и мнимой частей. Из самого определения дисперсии следует, что дисперсия ком- плексной случайной величины всегда действительна и существенно положительна. Обращаться в нуль она может только в случае, если величина Z не случайна. Данные выше определения математического ожидания и дисперсии, очевидно, удовлетворяют поставленному требованию: при К = 0 и Z = X ;они превращаются в обычные определения математического ожидания и дисперсии действительной случайной величины. Попытаемся построить аналогичное определение корреляционного момента двух комплексных случайных величин Zx и Z2: Zx = Хг 4- /Гр Z2 = Х2 + /Г2. (15.9.5) Это определение, очевидно, должно быть построено так, чтобы при Z1 = Z2 = Z корреляционный момент обращался в дисперсию величины Z. Оказывается, этому требованию нельзя было бы удо- влетворить, если бы мы, как в случае действительных величин, назвали корреляционным моментом математическое ожидание произ- ведения ZXZ2. Нетрудно убедиться, что при ZX — Z2 = Z математиче- ское ожидание такого произведения будет не действительным, а комплексным, т. е. уже не дает дисперсии, которая, согласно определению, действительна и существенно положительна. Этого не будет, если назвать корреляционным моментом математическое
404 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ (ГЛ. (5 ожидание произведения Z} не на самую величину Z2, а на соответ- ствующую ей комплексную сопряженную величину: Z2 = £2—/Г2. (15.9.6) Тогда при Zj = Z2 = Z корреляционный момент, очевидно, обратится в дисперсию величины Z: Кгг = М (G¥ + (X — IY)\ = М [^21 + М [Г2] = Dz. (15.9.7) Таким образом, целесообразно дать следующее определение кор- реляционного момента двух комплексных случайных величин Zx и Z2: = (15.9.8) где чертой наверху обозначается комплексная сопряженная величина. Выразим корреляционный момент двух комплексных случайных величин через корреляционные моменты их действительных и мнимых частей. Имеем: =±= M\ZX Z2) = М [(X, + IYX) (Х2 - IY2)] = = (^ул — (15.9.9) где Кхш Ку.у2, ^у^. KXly2 — соответственно корреляционные мо- менты величин (Л’р Х2), (Кр Y2); (Кр Х2), (Хр У2). Очевидно, в случае, когда все эти величины между собой не кор- релированье корреляционный момент величин Zv Z2 также равен нулю. Таким образом, определения основных характеристик комплексных случайных величин отличаются от обычных определений аналогичных характеристик для действительных величин только тем, что: 1) в качестве дисперсии рассматривается не математическое ожи- дание квадрата центрированной случайной величины, а математи- ческое ожидание квадрата ее модуля; 2) в качестве корреляционного момента рассматривается не мате- матическое ожидание произведения центрированных величин, а мате- матическое ожидание произведения одной центрированной величины на комплексную сопряженную другой. Перейдем к определению комплексной случайной функции и ее характеристик. Комплексной случайной функцией называется функция вида: Z (0 = X (0 + IY (0, (15.9.10) где X(t)t Y (0 — действительные случайные функции. Математическое ожидание комплексной случайной функции (15.9.10) равно: /иг(0 = тх(04-^(0« (15.9.11)
15.9] КОМПЛЕКСНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ • 405 Дисперсия комплексной случайной функции Z (/) определяется как математическое ожидание квадрата модуля соответствующей центри- рованной функции: ОД0 = ЛП|£(0|2Ь (15.9.12) где Z (0 = Z (0 — тг (0 = X (0 + iY (t). (15.9.13) Из определения (15.9.12) видно, что дисперсия комплексной случай- ной функции действительна и неотрицательна. Из формулы (15.9.4) следует, что Дисперсия комплексной слу- чайной функции равна сумме дисперсий ее действительной и мнимой частей: Dz(t) = Dx(t) + Dy(t\ (15.9.14) Корреляционная функция комплексной случайной функции опре- деляется как корреляционный момент ее сечений t и t'x t')^M[Z(t)Z(t')\. (15.9.15) где . _ , Z(H = X(/')—/К(И — комплексная величина, сопряженная величине Z(tf). При tr — t корреляционная функция, очевидно, обращается в дис- персию: t) = Dz(t). (15.9.16) Пользуясь формулой (15.9.9), можно выразить корреляционную функцию комплексной случайной функции через характеристики ее действительной и мнимой частей. Рассматривая в качестве случайных величин Zx и Z2, фигурирующих в этой формуле, сечения случайной функции Z(t) и Z(/')> получим: Kz(t. t') = Kx(t.t') + Ky(tt t') + l{RXy(t'. — f)}, (15.9.17) где Rxy(tt f) — взаимная корреляционная функция случайных функ- ций X (/) и Y (t) (действительной и мнимой частей случайной функ- ции Z (t)). В случае, когда действительная и мнимая части случайной функ- ции не коррелированы (/?ху(Л /') = 0)’ формула (15.9.17) имеет вид: Kz(t, t') = Kx(t. t') + Ky(t. f). (15.9.18) В дальнейшем изложении мы будем пользоваться как действи- тельной, так и комплексной формой записи случайных функций. В последнем случае мы будем всегда оговаривать это.
- ГЛАВА Щ КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ 16.1. Идея метода канонических разложений. Представление случайной функции в виде суммы элементарных случайных функций В п° 15.7 мы познакомились с общими правилами линейных пре- образований случайных функций. Эти правила сводятся к тому, что при линейном преобразовании случайной функции ее математическое ожидание подвергается тому же линейному преобразованию, а кор- реляционная функция подвергается этому преобразованию дважды: по одному и другому аргументу. Правило преобразования математического ожидания очень просто и при практическом применении затруднений не вызывает. Что ка- сается двойного преобразования корреляционной функции, то оно в ряде случаев приводит к чрезвычайно сложным и громоздким опе- рациям, что затрудняет практическое применение изложенных общих методов. Действительно, рассмотрим, например, простейший интегральный оператор: t Y(t) = f (16.1.1) О Согласно общему правилу корреляционная функция преобразуется тем же оператором дважды: t г Ку (/, t') = f f Кх (t, t') dx dx'. (16.1.2) 0 0 Очень часто бывает, что Полученная из опыта корреляционная функция Кх (t, /') не имеет аналитического выражения и задана таблично; тогда интеграл (16.1.2) приходится вычислять численно, определяя его как функцию обоих пределов. Это — задача очень
16.1] ПРЕДСТАВЛЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ В ВИДЕ СУММЫ 407 громоздкая и трудоемкая. Если даже аппроксимировать подынте- гральную функцию каким-либо аналитическим выражением, то и в этом случае чаще всего интеграл (16.1.2) через известные функции не выражается. Так обстоит дело даже при простейшей форме опера- тора преобразования. Если же, как часто бывает, работа динами- ческой системы описывается дифференциальными уравнениями, реше- ние которых не выражается в явной форме, задача об определении корреляционной функции на вы- ходе еще более осложняется: она требует интегрирования диф- ференциальных уравнений с част- ными производными. В связи с этим на практике применение изложенных общих методов линейных преобразова- ний случайных функций, как правило, оказывается слишком сложным и себя не оправдывает. При решении практических задач значительно чаще применяются другие методы, приводящие к бо- лее простым преобразованиям. Один из них — так называемый ний, разработанный В. С. Пу] данной главы. Идея метода канонических разложений состоит в том, что слу- чайная функция, над которой нужно произвести те или иные преоб- разования, предварительно представляется в виде суммы так назы- ваемых элементарных случайных функций. Элементарной случайной функцией называется функция вида: метод канонических ачевым. и составляет разложе- содержание (16.1.3) где V — обычная случайная величина, ср (/)— обычная (неслучайная) функция. Элементарная случайная функция является наиболее простым ти- пом случайной функции. Действительно, в выражении (16.1.3) слу- чайным является только множитель V, стоящий перед функцией <р(/); сама же зависимость от времени случайной не является. Все возможные реализации элементарной случайной функции X (/) могут быть получены из графика функции x = y(t) простым изме- нением масштаба по оси ординат (рис. 16.1.1). При этом ось абсцисс (х = 0) также представляет собой одну из возможных реализаций случайной функции X (t)t осуществляющуюся, когда случайная вели- чина V принимает значение 0 (если это значение принадлежит к числу возможных значений величины V).
408 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 16 В качестве примеров элементарных случайных функций приведем функции Х (/) = V sin / (рис. 16.1.2) и Л(/) = У72 (рис. 16.1.3). Элементарная случайная функция характерна тем, что в ней раз- делены две особенности случайной функции: случайность вся сосре- доточена в коэффициенте V, а зависимость от времени — в обычной функции <р (/). Определим характеристики элементарной случайной функции (16.1.3). Имеем: тх (0 = М [Уср (/)] = mv<? (0. где mv — математическое ожидание случайной величины' V. Если mv = 0, математическое ожидание случайной функции X (t) также равно нулю, причем тождественно: тх(/)н=0. Мы знаем, что любую случайную функцию можно центрировать, т. е. привести к такому виду, когда ее математическое ожидание равно нулю. Поэтому в дальнейшем мы будем рассматривать только центрированные элементарные случайные функции, для которых mv = 0; V = V; тх (t) = 0. Определим корреляционную функцию элементарной случайной функции X (t). Имеем: Кх (t /') = М \Х (0 X (/')] = ср (/) <р (П М [У2] = ср (0 ср (Г) D, где D — дисперсия величины V. Над элементарными случайными функциями весьма просто вы- полняются всевозможные линейные преобразования. Например, продифференцируем случайную функцию (16.1.3). Слу- чайная величина V, не зависящая от Л выйдет за знак производной, и мы получим: X' (O = Vcp'(O.
16.1] • ПРЕДСТАВЛЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ В ВИДЕ СУММЫ 409 Аналогично / < JX(t)dT = V/<р(т)Л. 0 0 Вообще, если элементарная случайная функция (16.1.3) преобра- зуется линейным оператором £, то при этом случайный множитель И, как не зависящий от t, выходит за знак оператора, а неслучайная функция <р (0 преобразуется тем же оператором L: L[X (t)} =VL[<t(t)]. (16.1.4) Значит, если элементарная случайная функция поступает на вход линейной системы, то задача ее преобразования сводится к простой задаче преобразования одной неслучайной функции ср (/)• Отсюда возникает идея: если на вход динамической системы поступает неко- торая случайная функция общего вида, то можно ее представить точно или приближенно — в виде суммы элементарных случайных функций и только затем подвергать преобразованию. Такая идея разложения случайной функции на сумму элементарных случайных функций и лежит в основе метода канонических разложений. Пусть имеется случайная функция: Х(0 = тж(0 + Х(0. (16.1.5) Допустим, что нам удалось — точно или приближенно—предста- вить ее в виде суммы X (0 = тх (I) + 2 (0. (16.1.6) /=1 где Vl — случайные величины с математическими ожиданиями, рав-* ными нулю, <pf (/) — неслучайные функции, тх (t) — математическое ожидание функции X (t). Условимся называть представление случайной функции в форме (16.1.6) разложением случайной функции. Случайные величины VP V2, ..., Vm будем называть коэффициентами разложения, а не- случайные функции <рх (О, ср2 (/), .... <рш(/) — координатными функ- циями. Определим реакцию линейной системы с оператором L на слу- чайную функцию X (0, заданную в виде разложения (16.1.6). Известно, что линейная система обладает так называемым свойством супер- позиции, состоящим в том, что реакция системы на сумму несколь- ких воздействий равна сумме реакций системы на каждое отдельное воздействие. Действительно, оператор системы £, будучи линейным, может, по определению,’ применяться к сумме почленно. Обозначая Y (/) реакцию системы на случайное воздействие X (/). имеем: т Y(t) = L [X (0} = L {тх (0} + 5 VtL (0). (16.1.7)
410 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 16 Придадим выражению (16.1.7) несколько иную форму. Учитывая общее правило линейного преобразования математического ожидания, убеждаемся, что L{mx(t)} = my(t). Обозначая IМ)} =ыо. имеем: т (16.1.8) Выражение (16.1.8) представляет собой не что иное, как раз- ложение случайной функции Y (t) по элементарным функциям. Коэф- фициентами этого разложения являются те же случайные величины Vp V2......Vm, а математическое ожидание и координатные функ- ции получены из математического ожидания и координатных функций исходной случайной функции тем же линейным преобразованием £, какому подвергается случайная функция X(f). Резюмируя, получаем следующее правило преобразования случай- ной функции, заданной разложением. Если случайная функция X(t), заданная разложением по элементарным функциям, подвергается линейному преобра- зованию £, то коэффициенты разложения остаются неизмен- ными, а математическое ожидание и координатные функции подвергаются тому же линейному преобразовании} L. Таким образом, смысл представления случайной функции в виде разложения сводится к тому, чтобы свести линейное преобразование случайной функции к таким же линейным преобразованиям несколь- ких неслучайных функций — математического ожидания и коорди- натных функций. Это позволяет значительно упростить решение задачи нахождения характеристик случайной функции У (/) по срав- нению с общим решением, данным в п° 15.7. Действительно, каждая из неслучайных функций mx(f), <р2(/), <?от(0 в данном случае преобразуется только один раз в отличие от корреляцион- ной функции Kx(t, /'), которая, согласно общим правилам, преоб- разуется дважды. 16.2. Каноническое разложение случайной функции Рассмотрим случайную функцию X (/), заданную разложением X (/) = тх (/) 4- 2 VlVl (/). (16.2.1) 2=1 где коэффициенты Vv V2, .... Vm представляют собой систему случайных величин с математическими ожиданиями, равными нулю и с корреляционной матрицей ||К/уЦ.
16.21 КАНОНИЧЕСКОЕ РАЗЛОЖЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ 411 Найдем корреляционную функцию и дисперсию случайной функ- ции X(t). По определению Кж(0 = (16.2.2) где X (0 = 2^(0. (16.2.3) / = 1 *(П=Д*>у(О. (16.2.4) В формуле (16.2.4) индекс суммирования обозначен буквой чтобы подчеркнуть его независимость от индекса суммирования I в формуле (16.2.3). Перемножая выражения (16.2.3) и (16.2.4) и применяя к произ* ведению операцию математического ожидания, получим: Kx(t, 0 = ^2 Vr/y/pi(/)?>(n]=2^f (16.2.5) где суммирование распространяется на все пары значений /, j—как равные, так и неравные. В случае, когда I = у, где Di — дисперсия случайной величины Vt. В случае, когда где Кц—корреляционный момент случайных величин Vlt Vj. Подставляя эти значения в формулу (16.2.5), получим выражение для корреляционной функции случайной функции X (/), заданной разложением (16.2.1): (16.2.6) Z=1 Полагая в выражении (16.2.6) = получим дисперсию случай- ной функции X (t): Dx (0=2(О)2 Dt + 2 <?, (О Ъ (О ки. (16.2.7) Z=1
412 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ (ГЛ. 16 Очевидно, выражения (16.2.6) и (16.2.7) приобретают особенно простой вид, когда все коэффициенты V, разложения (16.2.1) некор- релированны, т. е. Кц = 0 при l^j. В этом случае разложение случайной функции называется «каноническим». Таким образом, каноническим разложением случайной функ- ции X (Z) называется ее представление в виде: ~ тп X (/) = тх (/) 4- 2 (0. (16.2.8) где тх (/) — математическое ожидание случайной функции; <рх (/), ср2(0» •••’ ?т(0 — координатные функции, a V\, V2, ...» Vm — не- коррелированные случайные величины с математическими ожиданиями, равными нулю. Если задано каноническое разложение случайной функции, то ее корреляционная функция Kx(t, tf) выражается весьма просто. Пола- гая в формуле (16.2.6) Kij — Q при I =/= /, получим: tn кх (t, t') = (О ъ (*') Dt. (16.2.9) /=1 Выражение (16.2.9) называется каноническим разложением кор- реляционной функции. Полагая в формуле (16.2.9) tr = tt получим дисперсию случайной функции т £>х(0=2[?/(012О/. (16.2.10) i=l Таким образом, зная каноническое разложение случайной функ- ции X (/), можно сразу найти каноническое разложение ее корре- ляционной функции. Можно доказать, что обратное положение тоже справедливо, а именно: если задано каноническое разложение кор- реляционной функции (16.2.9), то для случайной функции X(t) спра- ведливо каноническое разложение вида (16.2.8) с координатными функциями <?/(/) и коэффициентами Vt с дисперсиями Dt. Мы при- мем это положение без специального доказательства 9* Число членов канонического разложения случайной функции может быть не только конечным, но и бесконечным. Примеры канонических разложений с бесконечным числом членов встретятся нам в главе 17. Кроме того, в ряде случаев применяются так называемые инте- гральные канонические представления случайных функций, в кото- рых сумма заменяется интегралом. ’) Доказательство см.: В. С. Пугачев, Теория случайных функций и ее применение в задачах автоматического управления, Физматгиз, 1962.
16.2| КАНОНИЧЕСКОЕ РАЗЛОЖЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ 413 Канонические разложения применяются не только для действи- тельных, но и для комплексных случайных функций. Рассмотрим обобщение понятия канонического разложения на случай комплексной случайной функции. Элементарной комплексной случайной функцией называется функ- ция вида: Х(/) = Уср(О, (16.2.11) где как случайная величина V, так и функция ср(/) комплексны. Определим корреляционную функцию элементарной случайной функции (16.2.11). Пользуясь общим определением корреляционной функции комплексной случайной функции, имеем: Кх (t, t') = М [Уср (/) IW)], (16.2.12) где чертой вверху, как и ранее, обозначена комплексная сопряжен- ная величина.-Имея в виду, что У<Р (/) = V <р (/). и вынося неслучайные величины ср (О и ср (?) за знак математиче- ского ожидания, получим: Kx(t. П = ?(0ЙПМ[|У|2]. Но, согласно п° 15.9, At[|У|2] есть не что иное, как дисперсия комплексной случайной величины V: A1[|V|2]=D, следовательно, Кх (Л Г) = ср (О ^(F) D. (16.2.13) Каноническим разложением комплексной случайной функции назы- вается ее представление в^иде: т = (16.2.14) 1=1 где Vv 1/2» •••» — некоррелированные комплексные случайные величины с математическими ожиданиями, равными нулю, а /пх(/), ?i (О» ?2 (0. • • •» (О — комплексные неслучайные функции. Если комплексная случайная функция представлена каноническим разложением (16.2.14), то ее корреляционная функция выражается формулой (t Г) = 5 ?/ (0 Dp (16.2.15) где Dk — дисперсия величины Vt\ = (16.2.16)
414 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ [ГЛ. 16 Формула (16.2.15) непосредственно следует из выражения (16.2.13) для корреляционной функции элементарной комплексной случайной функции. Выражение (16.2.15) называется каноническим разложением кор- реляционной функции комплексной случайной функции. Полагая в (16.2.15) tf = t> получим выражение для дисперсии комплексной случайной функции, заданной разложением (16.2.14): ^а)=2|?<<0|2^. (16.2.17) х ‘=1 16.3. Линейные преобразования случайных функций, заданных каноническими разложениями Пусть на вход некоторой линейной системы L поступает случай- ная функция X (0 (рис. 16.3.1). Рис. 16.3.1, Система преобразует функцию X (/) посредством линейного опе- ратора £, и на выходе мы получаем случайную функцию Y(t) = L{X(t)}. (16.3.1) Предположим, что случайная функция ^Х (/) задана ее канониче- ским разложением: X (0 = тх (0 + 2 У/?(. (/). (16.3.2) i =1 Определим реакцию системы на это воздействие. Так как опера- тор системы является линейным, то k Y(t) = L{X (0) = L [тх (/)} 4- 3/Л {<?/ (Ob (16.3.3) Рассматривая выражение (16.3.3), легко убедиться, что оно пред- ставляет собой не что иное, как каноническое разложение слу- чайной функции Y (t) с математическим ожиданием , /Пу (I) = L [тх (/)} (16.3.4)
M.3I ЛИНЕЙНЫЕ ПРЕОВРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИИ 415 и координатными функциями = L {?/(0Ь (16.3.5) Таким образом, при линейном преобразовании канонического разложения случайной функции X (/) получается каноническое разложение случайной функции V (/), причем математическое ожидание и координатные функции подвергаются тому же линейному преобразованию. Если случайная функция У (/) на выходе линейной системы полу* чена в виде канонического разложения J г (о=«,(/)+2^(0, (1б.з.б) то ее корреляционная функция и дисперсия находятся весьма просто: k Ky(t, t')= 2ФД0«МОDp (16.3.7) k *W=SWi(z)i2Dp (16.3.8) i=l Это делает особенно удобными именно канонические разло* жения по сравнению с любыми другими разложениями по элементар- ным функциям. Рассмотрим несколько подробнее применение метода канонических разложений к определению реакции динамической системы на слу- чайное входное воздействие, когда работа системы описывается линей- ным дифференциальным уравнением, в общем случае — с перемен- ными коэффициентами. Запишем это уравнение в операторной форме: Л(Р. 0Г(0 = Вш(р. (16.3.9) Согласно вышеизложенным правилам линейных преобразований случайных функций математические ожидания воздействия и реакции должны удовлетворять тому же уравнению: Л(р, t)my(t) = Bm(p9 (16.3.10У Аналогично каждая из координатных функций должна удовлет- ворять тому же дифференциальному уравнению: А (р. 0 (/) = Вт (р, О ъ (0. (16.3.11) (/=1, 2.....k). Таким образом, задача определения реакции линейной динамиче- ской системы на случайное воздействие свелась к обычной математи- ческой задаче интегрирования k 1 обыкновенных дифференциальных
416 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 1в уравнений, содержащих обычные, не случайные'функции. Так как при решении основной задачи анализа динамической системы — опре- деления ее реакции на заданное воздействие — задача интегриро- вания дифференциального уравнения, описывающего работу системы, . тем или другим способом решается, то при решении уравнений (16.3.10) и (16.3.11) новых математических трудностей не возникает. В част- ности, для решения этих уравнений могут быть с успехом применены те же интегрирующие системы или моделирующие устройства, которые применяются для анализа работы системы без случайных возмущений. Остается осветить вопрос о начальных условиях, при которых следует интегрировать уравнения (16.3.10) и (16.3.11). Сначала рассмотрим наиболее простой случай, когда начальные условия для данной динамической системы являются неслучайными. В этом случае при / = 0 должны выполняться условия: И(О) = уо, Г(0) = У1, У*г)((У) = уг. у»>-1,(0) = уя_1, (16.3.12) где у0, ур ...» — неслучайные числа. Условия (16.3.12) можно записать более компактно: ИГ)(О)==УГ (r = 0. 1..................n —I). (16.3.13) понимая при этом под «производной нулевого порядка» саму функцию Y (/)• Выясним, при каких начальных условиях должны интегрироваться уравнения (16.3.10) и (16.3.11). Для этого найдем r-ю. производную функции Y (t) й положим в ней t — 0: (0) = т? (0) 4- S /=1 Учитывая (16.3.12), имеем: т(;\0)+ 2^Г)(0) = Уг- (16.3.14) i=l Так как величина уг не случайна, то дисперсия левой части равенства (16.3.14) должна быть равна нулю: '^|D/hf(0)]2 = 0. (16.3.15)
16,3] ЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ 417. Так как все дисперсии Dt величин Vz положительны, то равен- ство (16.3.15) может осуществиться только, когда <!></) (0) = О (16.3.16) для всех I. Подставляя <|Лг)(0) = 0 в формулу (16.3.14), получим: mW(0) = yr. (16.3.17) Из равенства (16.3.17) следует, что уравнение (16.3.10) для ма- тематического ожидания должно интегрироваться при заданных на- чальных условиях (16.3.12): ту(О) = уо, /»у(О) = УР mW(0) = yr, (16.3.18) /и0»)(0) = уя. Что касается уравнений (16.3.11), то они должны интегрироваться при нулевых начальных условиях: Ф,(О) = ф;(О)= ... =ф(/)(0)= ... =фИ(0) = 0 (Z=l, 2.......k). (16.3.19) Рассмотрим более сложный случай, когда начальные условия случайны: Г(О) = Го. У'(0) = Гр y(r)(0) = Yr. (16.3.20) /п-1>(0) = Г„_1. где Уо, Yv ..., Кя-1 — случайные величины. В этом случае реакция на выходе системы может быть найдена в виде суммы: Г(О = Г1Ю4-ГП(0, (16.3.21) где Ki (0 —решение дифференциального уравнения (16.3.9) при нуле- вых начальных условиях; Еп(/)— решение того же дифференциаль- ного уравнения, но с нулевой правой частью при заданных начальных условиях (16.3.20). Как известно из теории дифференциальных 27-3015
418 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ, 16 уравнений, это решение представляет собой линейную комбинацию начальных условий^ • л-1 = (16.3.22) где f j(f) — неслучайные функции. Решение Yx(t) может быть получено изложенным выше методом в форме канонического разложения. Корреляционная функция случай- ной функции K(/) = Kj(/)+Кп(0 может быть найдена обычными приемами сложения случайных функций (см. п°15.8). Следует заметить, что на практике весьма часто встречаются случаи, когда для моментов времени, достаточно удаленных от начала случайного процесса, начальные условия уже не оказывают влияния на его течение: вызванные ими переходные процесс^ успевают за- тухнуть. Системы, обладающие таким свойством, называются асимп- тотически устойчивыми. Если нас интересует реакция асимптотически устойчивой динамической системы на участках времени, достаточно удаленных от начала, то можно ограничиться исследованием реше- ния полученного прй нулевых начальных условиях. Для доста- точно удаленных от начального моментов времени это решение будет справедливым и при любых начальных условиях.
ГЛАВА 1? СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ 17.1. Понятие о стационарном случайном процессе На практике очень часто встречаются случайные процессы, про- текающие во времени приблизительно однородно и имеющие вид непрерывных случайных колебаний вокруг некоторого среднего зна- чения. причем ни средняя амплитуда, ни характер этих колебаний не обнаруживают существенных изменений с течением времени. Такие случайные процессы называются стационарными. В качестве примеров стационарных случайных процессов можно привести: 1) колебания самолета на установившемся режиме горизон- тального полета; 2) колебания напряжения в электрической освети- тельной сети; 3) случайные шумы в радиоприемнике; 4) процесс качки корабля и т. п. Каждый стационарный процесс можно рассматривать как продол- жающийся во времени неопределенно долго; при исследовании стацио- нарного процесса в качестве начала отсчета можно выбрать любой мо- мент времени. Исследуя стационарный процесс на любом участке вре- мени, мы должны получить одни и те же его характеристики. Образно выражаясь, стационарный процесс «не имеет ни начала, ни конца». Примером стационарного случайного процесса может служить из- менение высоты центра тяжести самолета на установившемся режиме горизонтального полета (рис. 17.1.1). В противоположность стационарным случайным процессам можно указать другие, явно нестационарные, случайные процессы, например:
420 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 колебания самолета в режиме пикирования; процесс затухающих колебаний в электрической цепи; процесс горения порохового заряда в реактивной камере и т. д. Нестационарный процесс характерен тем, что он имеет определенную тенденцию развития во времени; характеристики такого процесса зависят от начала от- счета, зависят от времени. На рис. 17.1.2 изображено семейство реализаций явно нестацио- нарного случайного процесса — процесса изменения тяги двигателя реактивного снаряда во времени. Заметим, что далеко не все нестационарные случайные. процессы являются существенно нестационарными на всем протяжении своего развития. Существуют неста- ционарные процессы, которые (на известных отрезках вре- мени и с известным приближе- нием) могут быть приняты за стационарные. Например, процесс наводки перекрестия авиационного при- цела на цель есть явно неста- ционарный процесс, если цель за короткое время с большой и резко меняющейся угловой скоростью проходит поле зрения прицела. В этом случае колебания оси прицела относительно цели не успевают установиться в некотором стабильном режиме; про- цесс начинается и заканчивается, не успев приобрести стационар-, ный характер. Напротив, процесс наводки перекрестия прицела на неподвижную или движущуюся с постоянной угловой скоростью цель через некоторое время после начала слежения приобретает стационарный характер. Вообще, как правило, случайный процесс в любой динамической системе начинается с нестационарной стадии — с так называемого «переходного процесса». После затухания переходного процесса система обычно переходит на установившийся режим, и тогда слу- чайные процессы, протекающие в ней, могут считаться стационарными. Стационарные случайные процессы очень часто встречаются в фи- зических и технических задачах. По своей природе эти процессы проще, чём нестационарные, и описываются более простыми характе- ристиками. .Линейные преобразования стационарных случайных про- цессов также обычно осуществляются проще, чем нестационарных. В связи с этим на практике получила широкое применение специаль- ная теория стационарных случайных процессов, или, точнее, теория стационарных случайных функций (так как аргументом стационарной случайной функции в общем случае может быть и не время). Элементы этой теории и будут изложены в данной главе.
17.1] ПОНЯТИЕ О СТАЦИОНАРНОМ СЛУЧАЙНОМ ПРОЦЕССЕ 421 Случайная функция X (/) называется стационарной, если все ее вероятностные характеристики не зависят от t (точнее, не меняются при любом сдвиге аргументов, от которых они зависят, по оси /). В данном элементарном изложении теории случайных функций мы совсем не пользуемся такими вероятностными характеристиками, как законы распределения: единственными характеристиками, кото- рыми мы пользуемся, являются математическое ожидание, дисперсия и корреляционная функция. Сформулируем определение стационарной случайной функции в терминах этих характеристик. Так как изменение стационарной случайной функции должно протекать однородно по времени, то естественно потребовать, чтобы для стационарной случайной функции математическое ожидание было , постоянным: m х (/) = /пх = const. (17.1.1) Заметим, однако, что это требование не является существенным: мы знаем, что от случайной функции X (t) всегда можно перейти к цен- трированной случайной функции X (t)9 для которой математическое ожидание тождественно равно нулю и, следовательно, удовлетворяет условию (17.1.1). Таким образом, если случайный процесс нестацио- нарен только за счет переменного математического ожидания, это не помешает нам изучать его как стационарный процесс. Второе условие, которому, очевидно, должна удовлетворять ста- ционарная случайная функция,—это условие постоянства дисперсии: Dx (0 = Dx = const. (17:1.2) Установим, какому условию должна удовлетворять корреляцион- ная функция стационарной случайной функции. Рассмотрим случай- ную функцию X (() (рис. 17.1.3). Положим в выражении Kx(tt t') t' — t -|- т и рассмотрим Kx (t* + T) — корреляцион- ный момент двух сечений слу- чайной функции, разделен- ных интервалом времени т. / I J\____________/ V , Очевидно, если случайный 0 * t т г т\£/ процесс X (t) действительно z \J стационарен, то этот корре- ляционный момент не должен Рис* зависеть от того, где именно на оси Ot мы взяли участок т, а должен зависеть только от длины этого участка. Например, для участков / и // на рис. 17.1.3, имею- щих одну и ту же длину т, значения корреляционной функции /СХ(Л + и Kx{tv ^ + т) должны быть одинаковыми. Вообще, корреляционная функция стационарного случайного процесса должна зависеть не от положения t первого аргумента на оси абсцисс, а только от промежутка т между первым и вторым аргументами: Kx(t. ' + O = (17.1.3)
422 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 Следовательно, корреляционная функция стационарного случайного процесса есть функция не двух, а всего одного аргумента. Это обстоятельство в ряде случаев сильно упрощает операции над ста- ционарными случайными функциями. Заметим, что условие (17.1.2), требующее от стационарной слу- чайной функции постоянства дисперсии, является частным случаем условия (17.1.3). Действительно, полагая в формуле (17.1.3) — t (т = 0), имеем (0 = (Л = (0) s consL (17л Л) Таким образом, условие (17.1.3) есть единственное существенное усло- вие, которому должна удовлетворять стационарная случайная функция. Поэтому в дальнейшем мы под стационарной случайной функцией будем понимать такую случайную функцию, корреляционная функция которой зависит не от обоих своих аргументов t и а только от разности т между ними. Чтобы не накладывать специальных условий на математическое ожидание, мы будем рассматривать только центрированные слу- чайные функции. Мы знаем, что корреля- ционная функция любой слу- чайной функции обладает свойством симметрии: ’ Kx(t, t') = Kx(t'. t). Отсюда для стационарного процесса, полагая tf — t — xt имеем: Лх(т) = М-0. (17.1.5) т. е. корреляционная функция kx(x) есть четная функция своего аргумента. Поэтому обычно корреляционную функцию определяют только для положительных значений аргумента (рис. 17.1.4). На практике, вместо корреляционной функции &х(т), часто поль- зуются нормированной корреляционной функцией . <17Л-6) где Dx = kx(ty — постоянная дисперсия стационарного процесса. Функция рх(т) есть не что иное, как коэффициент корреляции между сечениями случайной функции, разделенными интервалом т по времени. Очевидно, что рх(0)=1. В качестве * примеров рассмотрим два образца приблизительно стационарных случайных процессов и построим их характеристики. Пример 1. Случайная функция X (t) задана совокупностью 12 реали- заций (рис. 17.1.5). а) Найти ее характеристики Kx(t, О» и
17.1] ПОНЯТИЕ О СТАЦИОНАРНОМ случайном п!роцессе 423 нормированную корреляционную функцию гх (/, Г). б) Приближенно рассмат- ривая случайную функцию X (t) как стационарную, найти ее характеристики. Решение. Так как случайная функция X (t) меняется сравнительно плавно, можно брать сечения не очень часто, например через 0,4 сек. Тогда Рие. 17.1.5. случайная функция будет сведена к системе семи случайных величин, отвечающих сечениям /^=0; 0,4; 0,8; 1,2; 1,6; 2,0; 2,4. Намечая эти сечения на графике и снимая с графика значения случайной функции в этих сече- ниях, получим таблицу (табл. 17.1.1). Таблица 17.1.1 М реали-^v. зации J " 0,4 0,8 1,2 1,8 2,0 2,4 1 1 0,64 0,74 0,62 0,59 0,35 —0,09 -0,39 2 | 0,54 0,37 0,06 * —0,32 —0,60 —0,69 —0,67 3 1 0,34 0,50 0,37 0,26 —0,52 —0,72 0,42 4 1 0,23 0,26 0,35 0,55 0,69 0,75 0,80 5 1 0,12 0,20 0,24 0,18 —0,20 —0,42 —0,46 6 1 —0,16 -0,12 —0,15 0,05 0,29 0,43 0,63 7 | —0,22 —0,29 —0,38 —0,24 —0,06 0,07 —0,16 8 -0,26 —0,69 -0,70 —0,61 -0,43 —0,22 . 0,29 9 1 -0,50 -0,60 —0,68 —0,62 —0,68 —0,56 —0,54 10 I —0,30 0,13 0,75 0,84 0,78 0,73 0,71 11 1 —0,69 -0,40 0,08 0,16 0,12 0,18 0,33 12 I 0,18 -0,79 —0,56 —0,39 -0,42 —0,58 -0,53 Таблицу рекомендуется заполнять во строчкам, передвигаясь все время вдоль одной реализации. Далее [находим оценки для характеристик случайных величин X (0), X(0,4), Х(2,4). Суммируя значения по столбцам и деля сумму на число
424 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 реализаций л = 12, найдем приближенно зависимость математического ожи- дания от времени: t 0 0,4 0,8 1,2 1,6 2,0 2,4 mx(t) —0,007 —0,057 0,000 0,037 —0,057 -0,093 0,036 На графике рис. 17.1.5 математическое ожидание показано жирной линией. Далее находим оценки для элементов корреляционной матрицы: диспер- сий и корреляционных моментов. Вычисления удобнее всего производить по следующей схеме. Для вычисления статистической дисперсии суммируются квадраты чисел, стоящих в соответствующем столбце; сумма делится на п = 12; из результата вычитается квадрат соответствующего математического ожи- дания. Для получения несмещенной оценки результат множится на поправку —= 4т • Аналогично оцениваются корреляционные моменты. Для вы- п — 1 11 числения статистического момента, отвечающего двум заданным сечениям, перемножаются числа, стоящие в соответствующих столбцах; произведения складываются алгебраически; полученная сумма делится на п == 12; из резуль- тата вычитается произведение соответствующих математических ожиданий; для получения несмещенной оценки корреляционного момента результат мно- жится на ’л 2ГТ ’ При выполнении расчетов на счетной машине или ариф- мометре промежуточные результаты ‘умножений не записываются, а непо- средственно суммируются *)- Полученная таким способом корреляционная матрица системы случайных величин X (0), X (0,4).......X (2,4) — она же таблица значений корреляционной функции Кх (/, t') — приведена в таблице 17.1.2. Таблица 17.1.2 t I XJ 0 0,4 0,8 1,2 1,6 2,0 2,4 0 1 0,1632 0,4 8 03 1,2 • 1,6 2,0 2,4 0,1379 0,2385 0,0795 0,2029 0,2356 0,0457 0,1621 0,2152 0,2207 —0,0106 0,0827 0,1527 0,1910 0,2407 -0,0642 0,0229 0,0982 0,1491 0,2348 0,2691 —0,0648 0,0251 0,0896 0,1322 0,1711 0,2114 0,2878 По главной диагонали таблицы стоят оценки дисперсий: t 0 0,4 0,8 | 1,2 1,6 2,0 2,4 Dx{t) 0,1632 0,2385 0,2356 | 0,2207 0,2407 * 0,2691 0,2878 *) В данном случае оказалось возможным непосредственно вести обработку через начальные моменты, так как математическое ожидание функции X (t) близко к нулю. Если это не так, то перед обработкой необходимо перенести начало отсчета поближе к математическому ожиданию.
17.1] ПОНЯТИЕ О СТАЦИОНАРНОМ СЛУЧАЙНОМ ПРОЦЕССЕ 425 Извлекая из этих величин квадратные корни, найдем зависимость сред- него квадратического отклонения от времени: t 0 0,4 0,8 1,2 1,6 2,0 2,4 «ДО 0,404 0,488 0,485 0,470 0,491 0,519 0,536 Деля значения, стоящие в табл. 17.1.2, на произведения соответствующих средних квадратических отклонений, получим таблицу значений нормирован- ной корреляционной функции rx (t, t') (табл. 17.1.3). Таблица 17.1.3 t 0 0,4 0,8 1,2 1,6 2,0 2,4 0 0,4 0,8 1,2 1,6 2,0 2,4 . 1 0,700 1 0,405 0,856 1 0,241 0,707 0,943 1 —0,053 0,345 0,643 0,829 1 —0,306 0,090 0,390 0,612 0,923 1 —0,299 0,095 0,344 0,524 0,650 0,760 1 Проанализируем полученные данные под углом зрения предполагаемой стационарности случайной функции X(t). Если судить непосредственно по данным, полученным в результате обработки, то можно прийти к выводу, что случайная функция X (t) стационарной не является: ее математическое ожи- дание не вполне постоянно; дисперсия также несколько меняется со време- нем; значения нормированной корреляционной функции вдоль параллелей главной диагонали также не вполне постоянны. Однако, принимая во внима- ние весьма ограниченное число обработанных реализаций (п = 12) ив связи с этим наличие большого элемента случайности в полученных оценках, эти видимые отступления от стационарности вряд ли можно считать значимыми, тем более, что они не носят сколько-нибудь закономерного характера. По- этому вполне целесообразной будет приближенная замена функции X (0 стационарной. Для приведения функции к стационарной прежде всего ©сред- ним по времени оценки для математического ожидания: ‘ ~ тх (0) + тх (0,4) + ... +тх (2,4) ~ Аналогичным образом осредним оценки для дисперсии: Dx = £Я0) + Дг(0,4)+ ... +^(24) 0>236 Извлекая корень, найдем осредненную оценку с. к. о.: 9Х « 0,486. Перейдем к построению нормированной корреляционной функции того стационарного процесса, которым можно заменить случайную функцию X (t). Для стационарного процесса корреляционная функция (а значит, и нормиро- ванная корреляционная функция) зависит только от т = Г —следовательно,
426 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ (ГЛ. 17 при постоянном т корреляционная функция должна быть постоянной. В таб- лице 17.1.3 постоянному т соответствуют: главная диагональ (: = 0) и парал- лели этой диагонали (т = 0,4; ч = 0,8; т=1,2 и т. д.). Осредняя оценки нор- мированной корреляционной функции вдоль этих параллелей главной диагонали, получим значения функции рх (т): / 1 0 0,4 0,8 1,2 1,6 2,0 2,4 РхСО | •1,00 .0,84 0,60 0,38 0,13 —0,10 —0,30 График функции (х) представлен на рис. 17.1.6. При рассмотрении рис. 17.1.6 обращает на себя внимание наличие для некоторых т отрицательных значений корреляционной функции. Это указывает на то, что в структуре случайной функции имеется некоторый элемент пе- риодичности, в связи с чем на расстоянии по времени, равном примерно половине периода основных коле- баний, наблюдается отрицательная корреляция между значениями слу- чайной функции: положительным отклонениям от среднего в одном сечении соответствуют отрица- тельные отклонения через опре- деленный промежуток времени, и наоборот. Такой характер корреляцион- ной функции, с переходом на отри- цательные значения, очень часто встречается на практике. Обычно в таких случаях по мере увеличе- ния т амплитуда колебаний корре- ляционной функции уменьшается и при дальнейшем увеличении т корреляционная функция стре- мится к нулю. Пример 2. Случайная функция X (t) задана совокупностью 12 своих реализаций (рис. 17.1.7). Приближенно заменив функцию л (/) стационарной, сравнить ее нормированную корреляционную функцию с функцией (т) пре- дыдущего примера. Решение. Так как случайная функция X (t) отличается значительно менее плавным ходом по сравнению с функцией (/) предыдущего примера, промежуток-между сечениями уже нельзя брать равным 0,4 сек, как в пре- дыдущем примере, а следует взять по крайней мере вдвое меньше Днапри- мер, 0,2 сек, как на рис. 17.1.7). В результате обработки получаем оценку для нормированной корреляционной функции (т): т I 0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,4 W 11.00 0,73 0,41 0,22 —0,01 -0,20 -0,19 -0,10 —0,06 —0,15 0,08 0,19 0,05 График функции ?/(/) представлен на рис. 17.1.8. Из сравнения графиков рис. 17.1.8 и 17.1.6 видно, что корреляционная функция, изображенная
СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА КОНЕЧНОМ УЧАСТКЕ 427 на риск 17.1.8, убывает значительно быстрее. Это и естественно, так как характер изменения функции X(t) в примере 1 гораздо более плавный и постепенный, чем в примере 2; в связи с этим корреляция между значениями случайной функции в примере 1 убывает медленнее. При рассмотрении рис. 17.1.8 бросаются в глаза незакономерные колебания функции (т) для боль- ших значений т. Так как при боль- ших значениях т точки графика получены осреднением сравни- тельно очень небольшого числа данных, их нельзя считать надеж- ными. В подобных случаях имеет смысл сгладить корреляционную функцию, как, например, показано пунктиром на рис. 17.1.8. 17.2. Спектральное разложе- ние стационарной случайной функции на конечном участке времени. Спектр дисперсий На двух примерах, приве- денных в предыдущем п°, мы наглядно убедились в том, что существует связь между характером кор- реляционной функции и внутренней структурой соответствующего ей случайного процесса. В зависимости от того, какие частоты и
428 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 в каких соотношениях преобладают в составе случайной функции, ее корреляционная функция имеет тот или другой вид. Из таких сооб- ражений мы непосредственно приходим к понятию о спектральном составе случайной функции. Понятие «спектра» встречается не только в теории случайных функций; оно широко применяется в математике, физике и технике. Если какой-либо колебательный процесс представляется в виде суммы гармонических колебаний различных частот (так называемых «гармоник»), то спектром колебательного процесса называется функ- ция, описывающая распределение амплитуд по различным частотам. Спектр показывает, какого рода колебания преобладают в данном процессе, какова его внутренняя структура. Совершенно аналогичное спектральное описание можно дать и стационарному случайному процессу; вся разница в том, что для слу- чайного процесса ампли- туды колебаний будут случайными величинами. Спектр стационарной слу- чайной функции будет описывать распределе- ние дисперсий по раз- 7 личным частотам. Подойдем к понятию о спектре стационарной Рис. 17.2.2. случайной функции из следующих соображений. о Рассмотрим стационарную случайную функцию X (0, которую мы наблюдаем на интервале (О, Т) (рис. 17.2.1). Задана корреляционная функция случайной функции X (0 Кх«. t + T) = kx(z). Функция kx(i) есть четная функция: kx(x) = kx(-x) и, следовательно, на графике изобразится симметричной кривой (рис. 17.2.2).
17.2] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА КОНЕЧНОМ УЧАСТКЕ 429 При изменении t и tr от 0 до Т аргумент x — t' — t изменяется от — Т до -f- Т. Мы знаем, что четную функцию на интервале (—Г, Т) можно разложить в ряд Фурье, пользуясь только четными (косинусными) гармониками: 2 Олсозо)лт, (17.2.1) А=0 где ша = Аш1: <0! = ^ = ^-, (17.2.2) а коэффициенты Dk определяются формулами: т = 2Т f k* -т т Dk — ^r I* &х(т) cos при k =/= 0. -г (17.2.3) Имея . в виду, что функции kx(x) и образовать формулы (17.2.3) к виду: т Dq = ~т J* kx (т) dxt о т Dk = T‘ f kx(x)cos «„xdx • 6 cosu>^t четные, можно пре- (17.2.4) при k ф 0. Перейдем в выражении (17.2.1) корреляционной функции &ж(т) от аргумента т снова к двум аргументам t и Для этого положим cos — cos о)л (tf — t) = cos cos sin (17.2.5) и подставим выражение (17.2.5) в формулу (17.2.1): оо Kx(t. f)=2 (Dfecos(oftZ'cos w^ + ^sino)*/'sinu^f). (17.2.6) л=о Мы видим, что выражение (17.2.6) есть не что иное, как кано- ническое разложение корреляционной функции Кх(t, f). Координатными функциями этого канонического разложения являются попеременно косинусы и синусы частот, кратных юр cosw^^ sinco^Z (k = 0, 1, ...).
430 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ (ГЛ. 17 Мы знаем, что по каноническому разложению* корреляционной функции можно построить каноническое разложение самой случайной функции с теми же координатными функциями и с дисперсиями, равными коэффициентам Dk в каноническом разложении корреля- ционной функции!). Следовательно, случайная функция X (/) может быть представлена в виде канонического разложения: оо X (0 = 2 (Uk cos ш*/ 4- Vk sin <d40. (17.2.7) А = 0 где Uk> Vk — некоррелированные случайные величины с математи- ческими ожиданиями, равными нулю, и дисперсиями, одинаковыми для каждой пары случайных величин с одним и тем же индексом k: D[Uk] = D[Vk] = Dk. (17.2.8) Дисперсии Dk при различных k определяются формулами (17.2.4). Таким образом, мы получили на интервале (0, Г) каноническое разложение случайной функции, X (t), координатными функциями которого являются функции cosw^/, sino>A/ при различных Раз- ложение такого рода называется спектральном разложением ста- ционарной случайной функции. На представлении случайных функций в виде спектральных разложений основана так называемая спект- ральная теория стационарных случайных процессов. Спектральное разложение изображает стационарную случайную функцию разложенной на гармонические колебания различных частот: (Dp о)2, ..., сол, ..., причем амплитуды этих колебаний являются случайными величинами. Определим дисперсию случайной функции X (/)» заданной спек- тральным разложением (17.2.7). По теореме о дисперсии линейной функции некоррелированных случайных величин D_ = D(A’(0]= 2 (cos2 и Л 4-sin2 шЛ)2Х ==££*. (17.2.9) А = 0 Л=0 Таким образом, дисперсия стационарной случайной функции равна сумме дисперсий всех гармоник ее спектрального разло- жения. Формула (17.2.9) показывает, что дисперсия функции X (/) 9 Можно доказать, что для любой корреляционной функции kx (т) коэф- фициенты Dki выражаемые формулами (17.2.4), неотрицательны.
17.3] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА БЕСКОНЕЧНОМ УЧАСТКЕ 431 известным образом распределена по различным частотам: одним часто* там соответствуют большие дисперсии, другим— меньшие. Распреде- ление дисперсий по частотам р можно проиллюстрировать 9 графически в виде так назы- f Т ваемого спектра стационар- ной случайной функции (точ- нее— спектра дисперсий). Для этого по оси абсцисс от- Т Т Т кладываются частоты <о0 = 0, ———*—’—*—1— Wp <о2, ..., и>£, ..., а по 12 3 * оси ординат—соответствую- Рис. 17.2.3. щие дисперсии (рис. 17.2.3). Очевидно, сумма всех ординат построенного таким образом спектра равна дисперсии случайной функции. 17.3. Спектральное разложение стационарной случайной функции на бесконечном участке времени. Спектральная плотность стационарной случайной функции Строя спектральное разложение стационарной случайной функ- ции X (t) на конечном участке времени (О, Г), мы получили спектр дисперсий случайной функции в виде ряда отдельных дискретных линий, разделенных равными промежутками (так называемый «пре- рывистый» или «линейчатый» спектр). Очевидно, чем ббльший участок времени мы будем рассматривать, тем полнее будут наши сведения о случайной функции. Естественно поэтому в спектральном разложении попытаться перейти к пределу при 7->оо и посмотреть, во что при этом обратится спектр случай- ной функции. При Г—>оо (01 = -2уг—>0; поэтому расстояния между частотами <ол, на которых строится спектр, будут при Т—>оо не- ограниченно уменьшаться. При этом дискретный спектр будет при- ближаться к непрерывному, в котором каждому сколь угодно малому интервалу частот До> будет соответствовать элементарная диспер- сия ДО (о)). Попробуем изобразить непрерывный спектр графически. Для этого мы должны несколько перестроить график дискретного спектра при конечном Т. А именно, будем откладывать по оси ординат уже не самую дисперсию Ол (которая безгранично уменьшается при Т->оо), а среднюю плотность дисперсии, т. е. дисперсию, при- ходящуюся на единицу длины данного интервала частот. Обозначим расстояние между соседними частотами Дш: А = 27 =
432 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ, 17 и на каждом отрезке До>, как на основании, построим прямоугольник с площадью Dk (рис. 17.3.1). Получим ступенчатую диаграмму, напоминающую по принципу построения гистограмму статистического распределения. Высота диаграммы на участке До>, прилежащем к точке со^, равна = • (17.3.1) и представляет собой среднюю плотность дисперсии на этом участке. Суммарная площадь всей диаграммы, очевидно, рав- на дисперсии случайной функции. Будем неограниченно увеличивать интервал Т. При этом До)—>0, и сту- пенчатая кривая будет не- ограниченно приближать- ся к плавной кривой Sx (со) (рис. 17.3.2). Эта кривая __ изображает плотность распределения дисперсий рис i73i по частотам непрерывного спектра, а сама функция Sx (со) называется спектральной плотностью дисперсии, или, короче, спектральной плотностью стационарной случайной функции X (/). Очевидно, площадь, огра- ниченная кривой 5^(0)), по- прежнему должна равняться дисперсии Dx случайной функции X (t): оо D, = f SA(«>)d«>. (17.3.2) О Формула (17.3.2) есть не что иное, как разложение дисперсии Ох на сумму элементарных слагаемых О Ь) da) <*> Sx(w>)d&. каждое из кото- рис 1732 рых представляет собой дисперсию, приходящуюся на элементарный участок частот d<nt прилежащий к точке (о (рис. 17.3.2). Таким образом, мы ввели в рассмотрение новую дополнительную , характеристику стационарного случайного процесса — спектральную
17.3) СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА БЕСКОНЕЧНОМ УЧАСТКЕ 4*33 плотность, описывающую частотный состав стационарного процесса. Однако эта характеристика не является самостоятельной; она пол- ностью определяется корреляционной функцией данного процесса. Подобно тому, как ординаты дискретного спектра.Dk выражаются формулами (17.2.4) через корреляционную функцию &г(т), спектраль- ная плотность Sx(cd) также может быть выражена через корреляцион- ную функцию. Выведем это выражение. Для этого перейдем в каноническом разложении корреляционной функции к пределу при Г—>оо и посмот- рим, во что оно обратится. Будем исходить из разложения (17.2.1) корреляционной функции в ряд Фурье на конечном интервале (—Т, Г): kx (т)= cos (17.3.3) л=о где дисперсия, соответствующая частоте а>л, выражается формулой * т Dk = j* kx (т) cos dx. (17.3.4) •о Перед тем как переходить к пределу при Т ->оо, перейдем в формуле (17.3.3) от дисперсии Dk к средней плотности дисперсии гр . Так как эта плотность вычисляется еще при конечном значе- нии Т и зависит от Т, обозначим ее: 5$Г,(<йа) = -^’. (17.3.5) Разделим выражение (17.3.4) на ; получим: г 5^Г)(а)Л) — ~ I* kx (т) cos солт dx. (17.3.6) о Из (17.3.5) следует, что - (17.3.7) Подставим выражение (17.3.7) в формулу (17.3.3); получим: kx (%) = S STX^k) cos Дсо. (17.3.8) *=о Посмотрим, во что превратится выражение (17.3.8) при Т—>оо. Очевидно, при этом Дсо—>0; дискретный аргумент переходит в непрерывно меняющийся аргумент со; сумма переходит в интеграл по переменной о>; средняя плотность дисперсии 5^Р(шл) стремится
434, СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. I? к плотности дисперсии Sx («), и выражение (17.3.8) в пределе при» нимает вид: СО = J (®) cos ©t rf®, (17.3.9) о где5х(ш)— спектральная плотность стационарной случайной функции- Переходя к пределу при Т->оо в формуле (17.3.6), получим выражение спектральной плотности через корреляционную функцию: OQ Sx(©) = ~ У* * kx (т) cosmrfx. (17.3.10) 6 Выражение типа (17.3.9) известно в математике под названием интеграла Фурье. Интеграл Фурье есть обобщение разложения в ряд Фурье для случая непериодической функции, рассматриваемой на бесконечном интервале, и представляет собой разложение функции на сумму элементарных гармонических колебаний с непрерывным спектром -1). Подобно тому как ряд Фурье выражает разлагаемую функцию через коэффициенты ряда, которые в свою очередь выражаются через разлагаемую функцию, формулы (17.3.9) и (17.3.10) выражают функ- ции Лх(т) и Sx(o)) взаимно: одна через другую. Формула (17.3.9) выражает корреляционную функцию через спектральную плотность; формула (17.3.10), наоборот, выражает спектральную плотность через корреляционную функцию., Формулы типа (17.3.9) и (17.3.10), связывающие взаимно две функции, называются преобразованиями Фурье2). Таким образом, корреляционная функция и спектральная плот- ность выражаются одна через другую с помощью преобразований Фурье. Заметим,- что из общей формулы (17.3.9) при т=0 получается ранее полученное разложение дисперсии по частотам (17.3.2)» На практике вместо спектральной плотности $х(®) часто поль- зуются нормированной спектральной плотностью: (17.3Л1) где Dx — дисперсия случайной функции. !) Формула (17.3.9) является частным видом интеграла Фурье, обобщаю* щим разложение в ряд Фурье четной функции по косинусным гармоникам. Аналогичное выражение может быть написано и для более общего случая. *) В данном случае мы имеем дело с частным случаем преобразований Фурье —с так называемыми «косинус-преобразованиями Фурье».
17.3] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА БЕСКОНЕЧНОМ УЧАСТКЕ 435 Нетрудно убедиться, что нормированная корреляционная функция рх (т) и нормированная спектральная плотность sx (<о) связаны теми же преобразованиями Фурье: со рл (т) = J* Sx (ш) COS (ОТ (/(О, о со SX (“>= 1 f Рж СО cos «гс dx. о (17.3.12) Полагая в первом из равенств (17.3.12) т = 0 и учитывая, что рж(0) = 1, имеем: оо (О>) J(O = 1, (17.3.13) т. е. полная площадь, ограниченная графиком нормированной спект- ральной плотности, равна единице. Пример 1. Нормированная корреляционная функция рх'(т) случайной функции X (0 убывает по линейному закону от единицы до нуля при 0 < т < т0; при т > торх(т) == 0 (рис. 17.3.3). Определить нормированную спектральную плотность случайной функции X (t). Решение. Нормированная корреляционная функция выражается фор- мулами: / I = 1 — — при 0 < т < т0, Рх W j *0 [ = 0 при т > т0. Из формул (17.3.12) имеем: со Sjc W = 4 f Р* W C0S = 0 = 7 f (‘ ~ cos C1 ~ cos
436 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 График нормированной спектральной плотности представлен на рис. 17.3.4. Первый — абсолютный — максимум спектральной плотности достигается при со = 0; раскрытием неопределенности в этой точке убеждаемся, что он равен . Далее при возрастании со спектральная плотность достигает ряда относительных максимумов, высота которых убывает с возрастанием со; при (О -> оо sx (со) -> 0. Характер изменения спектральной плотности sx(co) (быстрое или медлен- ное убывание) зависит от параметра т0. Полная площадь, ограниченная кри- вой sx(co), постоянна и равна единице.. Изме- w нение Tq равносильно изменению масштаба кри- вой 5г(со) по обеим, осям при сохранении ее площади. При увеличении т0 масштаб по оси ординат увеличивается, по оси абсцисс — уменьшается; преобладание в спектре случай- ной функции нулевой частоты становится бо- . лее ярко выраженным. В пределе при т0 -> оо случайная функция вырождается в обычную случайную величину; при этом рх(т) = 1, а спектр становится дискретным с одной-един- ственной частотой о>0 = 0. Пример 2. Нормированная спектральная плотность sx (со) случайной функции X (/) по- стоянна на некотором интервале частот <оь <о2 и равна нулю вне этого интервала (рис. 17.3.5). Определить нормированную корреляционную функцию случайной функ- ции X (/). Решение. Значение sx (со) при со 1 < со < <о2 определяем из условия» что площадь, ограниченная кривой sx (со), равна единице: Из (17.3.12) имеем: <о2 (т) = J* Sx (со) COS СОТ б/со Ш1 COS сот dab = = —-—-------г- (sin Щ2г — sin = —-— -------- COS (0>2 + <‘>| т) sin (0)2 0 0)1 т). с(<о2 —<»!)' т(«2 — <ot) V 2 ) \ 2 ) Общий вид функции Рх(') изображен на рис. 17.3.6. Она носит характер убывающих по амплитуде колебаний с рядом узлов, в которых функция обра- щается в нуль. Конкретный вид графика, очевидно, зависит от значений <оь со2. Представляет интерес предельный вид функции рх (т) при со, -> о>2. Оче- видно, при со2 = coj = со спектр случайной функции обращается в дискретный с одной-единственной линией, соответствующей частоте со; при этом корре- ляционная функция обращается в простую косинусоиду: рх (т) = cos сот. Посмотрим, какой вид в этом случае имеет сама случайная функция X (t). При дискретном спектре с одной-единственной линией спектральное разложе- ние стационарной случайной функции X (/) имеет вид; X (t) = U cos со/ V sin со/, (17.3.14)
17.3] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА БЕСКОНЕЧНОМ УЧАСТКЕ 437 где U и V — некоррелированные случайные величины с математическими ожиданиями, равными нулю, и равными дисперсиями: £) [С7] = £> [У] = £). Покажем, что случайная функция типа (17.3.14) может быть предста- влена как одно гармоническое колебание частоты со случайной ампли- тудой и случайной фазой. Обозначая COS Ф =----------, sin Ф — —===Г- , приводим выражение (17.3.14) к виду: X (t) = УU2 + У2 (cos Ф cos at + sin Ф sin tot) = Уи2 + V2 cos __ фу В этом выражении У U2 V2 — случайная амплитуда; Ф — случайная фаза гармонического колебания. До сих пор мы рассматривали только тот случай, когда распре- деление дисперсий по частотам является непрерывным, т. е. когда на бесконечно малый участок частот приходится бесконечно малая дисперсия. На практике иногда встречаются случаи, когда случайная функция имеет в своем составе чисто периодическую составляющую частоты (1)л со случайной амплитудой. Тогда в спектральном разло- жении случайной функции, помимо непрерывного спектра частот, будет фигурировать еще отдельная частота с конечной диспер- сией Dk. В общем случае таких периодических составляющих может быть несколько. Тогда спектральное разложение корреляционной функции будет состоять из двух частей: дискретного и непрерывного спектра: оо kx (т) == Dk cos <олт 4- J* (<d) cos wt tfw. (17.3.15) k о
438 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ ДГЛ. I? Случаи стационарных случайных функций с таким «смешанным» спектром на практике встречаются довольно редко. В этих случаях всегда имеет смысл разделить случайную функцию на два слагае- мых— с непрерывным и дискретным спектром — и исследовать эти слагаемые в отдельности. Относительно часто приходится иметь дело с частным случаем, когда конечная дисперсия в спектральном разложении случайной функции приходится на нулевую частоту ((о==О). Это значит, что в состав. случайной функции в качестве слагаемого входит обычная случайная величина с дисперсией Do. В подобных случаях также имеет смысл выделить это случайное слагаемое и оперировать с ним отдельно. 17.4. Спектральное разложение случайной функции в комплексной форме В ряде случаев с точки зрения простоты математических пре- образований оказывается удобным пользоваться не действительной, а комплексной формой записи как спектрального разложения слу- чайной функции, так и ее характеристик: спектральной плотности и корреляционной функции. Комплексная форма записи удобна, в частности, потому, что всевозможные линейные операции над функ- циями, имеющими вид гармонических колебаний (дифференцирование,. интегрирование, решение линейных дифференциальных уравнений и т. д.), осуществляются гораздо проще, когда эти гармонические , колебания записаны не в виде синусов и косинусов, а в комплекс- ной форме, в виде показательных функций. Комплексная форма записи корреляционной функции и спектральной плотности применяется и в тех случаях, когда сама случайная функция (а следовательно, и ее корреляционная функция и спектральная плотность) действительна. Покажем, как можно в спектральном разложении случайной функ- ции чисто формально перейти от действительной формы к комплексной. Рассмотрим спектральное разложение (17.2.8) случайной функции X (0 на участке (0, 7): Х(/) = 2 (ZAcosu^+V*sin<V). (17.4.1) л=о где Uk> Vk — некоррелированные случайные величины, причем для каждой пары Ubt Vk с одинаковыми индексами дисперсии равны: Dlt/J = D[VJ = DA. Учитывая, что о)£ = &а)1; о>0 = 0, перепишем выражение (17.4.1) в виде: X (0 = (/0 + (Уь cos + Vk sin <d*0. (17.4.2) *=i
17.4] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ В КОМПЛЕКСНОЙ ФОРМЕ 439 Придадим спектральному разложению (17.4.2) комплексную форму. Для этого воспользуемся известными формулами Эйлера: cos (1)А/ = iva.t , — е к +е k 2 е^к* _ e~i<okt е^к( __ е~ sin <okt =--------------------= — Z-------------о-------- R 2i 2 Подставляя эти выражения в формулу (17.4.2), имеем: г. _°° / /<*>«,/ , — /<о.г — \ X (!) = 4/0+ 2 (U* ------ПГ------- - Z V* --=г------)• (17.4.3) й=1 т. е. разложение с координатными функциями Преобразуем разложение (17.4.3) так, чтобы в нем в качестве координатных функций фигурировали только функции е'*к*\ для этого распространим условно область частот шл на отрицательные значения шив качестве частот спектрального разложения будем рассматривать значения шл = ^шх (&=±l,s ±2, ...), т. е. будем считать, что k принимает не только положительные, но и отрицательные значения. Тогда формулу (17.4.3) можно переписать в виде: . X (0 = 4/04- 2 е1шк‘ 4- У] (17.4.4) й=1 й=-1 ' если положить и_к = ил-, у_к=у„. Формула (17.4.4) представляет собой разложение случайной функ- ции X (/), в котором в качестве координатных функций фигурируют комплексные функции е1ы>к\ а коэффициенты представляют собой комплексные случайные величины. Обозначая эти комплексные слу- чайные величины Wk (Л=±1, ±2, ...), придадим разложению (17.4.4) форму; где ОО -со 1У7 __ *Уй w к — 2 w к 2 при Л = 0, при k > О, при k < 0. (17.4.5) (17.4.6)
440 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ (ГЛ. 17 Докажем, что разложение (17.4.5) является каноническим раз- ложением случайной функции X (t). Для этого достаточно показать, что случайные коэффициенты этого разложения не коррелированы между собой. Рассмотрим сначала коэффициенты двух различных членов раз- ложения в положительной части спектра Wk и при k^lt k > 0, I > 0 и определим корреляционный момент этих величин. Согласно определению корреляционного момента для комплексных случайных величин (см. п° 15.9) имеем: Kkl = M{WkWy где Wt—комплексная сопряженная величина для Wt. При k > 0, I > 0 К -М \uk~iV* Ui-iVi 1 _ Ui + W:il _ [ 2 2 J L 2 2 J — = { И \UkUt]+IM \UkVt} - IM [uyk]+M = 0. так как случайные величины Uk, Vki фигурирующие в разложении (17.4.1), все не коррелированы между собой. Совершенно так же докажем некоррелированность величин Wk, при любых знаках индексов k и /, если £=£±/. Остается доказать только некоррелированность коэффициентов при симметричных членах разложения, т. е. величин Wk и 1Г_Алри любом k. Имеем: = Л![ Uk-iV k = | м _zVft)2j Учитывая, что величины Uk, Vk, входящие в один и тот же член разложения (17.4.1), не коррелированы и имеют одинаковые диспер- сии Dk, получим: Таким образом, доказано, что разложение (17.4.5) представляет собой не что иное, как каноническое разложение случай- ной функции X (t) с комплексными координатными функциями eia>*‘ и комплексными коэффициентами Wk. Найдем дисперсии этих коэффициентов. При k — 0 дисперсия Do осталась, очевидно, такой же, как была при действительной форме
17.4] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ В КОМПЛЕКСНОЙ ФОРМЕ 441 спектрального разложения. Дисперсия каждой из комплексных вели- чин Wk (при k =£ 0) равна сумме дисперсий ее действительной и мни- мой частей: , п fU7 , _ D [Uk] , D [У*] _ 2D [Uk] _ Dk u\wk\— 4^"и 4 — 4 — 2 ’ Введем обозначение: D*k = -^ при &¥=0; £>£ = Do при k = 0 и построим дискретный спектр случайной функции X (/), распро- страненный на частоты от —оо до +°° (рис. 17.4.1). Этот спектр симметричен относительно оси ординат; от ранее построенного спектра (рис. 17.2.3) он отличается тем, что определен не только для положительных, но и для отрицательных частот, но зато его ординаты при k =/= 0 вдвое меньше соответствующих орди- нат прежнего спектра; сумма всех ординат по-прежнему равна дис- персии случайной функции X (t): оо ^=2 Dk. (ПАЛ) k= —оо Определим корреляционную функцию случайной функции X (I), представленной в виде комплексного спектрального разложения (17.4.5). Применяя формулу (16.2.15) для корреляционной функции комплекс- ной случайной функции, заданной каноническим разложением, имеем: Л = — оо = 2 5 эУМ'-О Л=-оо £=-оо
442 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 или," переходя к аргументу т = — t, Ьх(х) = S D*bela,k\ (17.4.8) A=—oo w где т P\ =~Рй = у У* kx (т) cos о)лт dx при k 0. (17.4.9) о Придадим выражению (17.4.9) также комплексную форму. По- лагая cos <олт =------------» получим: kx (t)(? V+е~dx = о ( т т е-‘ше у* kx(x)etw»xdx о Полагая во втором интеграле т = — и, имеем: т -т о f Ax(x)e,u>^dx — —J' kx(a)e~ukudu= f Ax(x)e~tvkx dx, 0 0 -T откуда т D*k==^ f ^(.^e-^dx. -T (17.4.10) Таким образом, мы построили комплексную форму спектрального разложения случайной функции на конечном интервале (0, Т). Далее естественно перейти к пределу при Т->оо, как мы делали для действительной формы, т. е. ввести в рассмотрение спектральную плотность S:(w)= lim ▲ш->0 и получить в пределе из формул (17.4.8), (17.4.10) интегральные соот- ношения, связывающие корреляционную функцию и спектральную плот- ность в комплексной форме. В пределе при Г->оо формулы (17.4.8)
17.4] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ В КОМПЛЕКСНОЙ ФОРМЕ 443 и (17.4.10) принимают вид: СО Аж(т) = (17.4.11) — ОО 00 5;(ш) = А f kx(y)e-^dx. (17.4.12) — оо Формулы (17.4.11) и (17.4.12) представляют собой комплексную форму преобразований Фурье, связывающих корреляционную функ- цию и спектральную плотность1). Формулы (17.4.11) и (17.4.12) могут быть и непосредственно получены из формул (17.3.9) и (17.3.10), если произвести в них замену 1т в •+ V COS arc =-----------» положить Sx ((о) = 2S* ((d) и расширить область интегрирования на интервал от —оо до 4-оо. Полагая в формуле (17.4.11) т = 0, получим выражение диспер- сии случайной функции X (fy. 00 Dx= Js*(a>)rfu). (17.4.13) — ОО Формула (17.4.13) выражает дисперсию случайной функции в виде суммы элементарных дисперсий, распределенных с некоторой плот- ностью по всему диапазону частот от —оо до 4"°°* Сравнивая формулу (17.4.13) и ранее выведен- ную (для действительной формы спектрального раз- ложения) формулу (17.3.2), мы видим, что они разли- чаются лишь тем, что в фор- муле (17.4.13) стоит не- сколько иная функция спе- ктральной плотности Sx((d), Рис. 17.4.2. определенная не от 0 до оо, а от —оо до оо, но зато с вдвое меньшими ордина- тами. Если изобразить обе функции спектральной плотности на О Заметим, что в главе 13, рассматривая характеристические функции, мы уже встречались с преобразованиями такого типа, а именно: характеристи- ческая функция й плотность вероятности выражаются Одна через другую с помощью преобразований Фурье.
444 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ’ [ГЛ- 17 графике, они различаются только масштабом по оси ординат и тем, что функция 5л((о) для отрицательных частот не определена (рис. 17.4.2). На практике в качестве спектральной плотности при- меняются как та, так и другая функции. Иногда в качестве аргумента спектральной плотности рассмат- ривают не круговую частоту (о>), а частоту колебаний /, выражен- ную в герцах: f = — . J 2n В этом случае подстановкой о) = 2к/ формула (17.4.11) при- водится к виду: оо kx(t) = 2n f sx^f)eM/xdf. —ОО или, вводя обозначение Gx(f) = 2nSx(2vf). ОО kx(x) = f Gx(J)e^df, — ОО (17.4.14) , Функция Gx(f) также может применяться как спектральная плотность дисперсии. Ее выражение через корреляционную функцию, очевидно, имеет вид: ОО Gx(f) = f kx(x)e~2ici^dt. (17.4.15) — ОО Все приведенные нами и некоторые другие применяемые на практике вы- ражения спектральной плотности, оче- видно, отличаются друг от друга только масштабом. Каждую из них можно нормировать, деля соответству- ющую функцию спектральной плот- ности на дисперсию случайной функции. Пример 1. Корреляционная функция случайной функции X (/) задана формулой: kx (с) = (17.4.16) где а > 0 (рис. 17.4.3). Пользуясь комплексной формой преобразования Фурье, определить спектральную плотность S* (<*>).
17.4) СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ В КОМПЛЕКСНОЙ ФОРМЕ 445 Решение. По формуле (17.4.12) находим: ОО — оо 0 оо оо оо = -g- У dz 4-у e-^+^'dT. = о о — & \ ~~ 1 g-(g-Zu))x । ~~~1 ^-(а4- /со)т']00 2к L а — /о> ‘ a -j- /(о Jo = — Г 1 । 1 1 = Da ‘2iz L a — Zo) ’ a fa> J к (a2 o>2) График спектральной плотности q*/ \ D* or (w) ® ---T-W-l-9\~ x 7 тс (a2 a>2) представлен на рис. 17.4.4. Посмотрим, как будут вести себя корреляционная функция и спектраль- ная плотность при изменении а. При. уменьшении а корреляционная функция будет убывать медленнее; характер изменения случайной функции становится более плавным; соответ- ственно в спектре случайной функции больший удельный вес приобретают малые частоты: кривая спектральной плотности вытягивается вверх, одновре- менно сжимаясь с боков; в пределе при а->0 случайная функция выродится в обычную случайную величину с дискретным спектром, состоящим из един- ственной линии с частотой (о0 = 0. При увеличении а корреляционная функция убывает быстрее, характер колебаний случайной функции становится более резким и беспорядочным; менее выраженным; при a -> со спектр случайной функции приближается к равномерному (так называемому «белому») спектру, в котором нет преоб- ладания каких-либо частот.
446 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ (ГЛ. И Пример 2. Нормированная корреляционная функция случайной функ- ции X (0 имеет вид: рж(т) = e“®lt| cospz (рис. 114.5). Определить нормированную спектральную плотность. Решение. Представляем (т) в комплексной форме: Р/О)~=е-‘|Т| 2 Нормированную спектральную плотность s* (i>) находим по формуле (17.4.12), подставляя в нее рж (т) вместо kx (т): оо » 1 /* . 4(*)~J — ОО 1 4я О оо У ет(е& + е-№)е-*тат+ -оо О откуда после элементарных преобразований получаем: SX<“>— 2„ { + а»4-(в>— ?)’ Вид графика спектральной плотности зависит от соотношения парамет- ров а и р, т. е. от того, что преобладает в корреляционной функции: убывание не закону е~® W или колеба- ние во закону cos ₽т. Очевидно, лч при сравнительно малых а вре- / \ /|\ обладает колебание, при срав- I \ /1 \ нительно больших а — убыва- / \ / | \л ние. В первом случае случайная / । \ / I \ функция близка к периодиче- /L—V / » \ сейм колебаниям частоты $ со случайной амплитудой и фазой; I соответственно в спектре слу- —| Х^^***— чайной функции преобладают ----------j---------!________—. частоты, близкие к частоте р. -2 и +2 Во втором случае спектраль- D 17.fi ный состав случайной функции кис. 1/л.о. более равномерен, преоблада- ния тех млн иных частот не наблюдается; в пределе при <х -> оо спектр случайной функции приближается к «белому» спектру. В качестве иллюстрации на рис. 17.4.6 изображены нормированные спектральные плотности для случаев: 1) р = 2, а = 1 (кривая /); 2) р = 2, а = 3 (кривая II). Как видно из чертежа, при а = 1 спектр случайной функции обнаруживает ярко выраженный максимум в области частот ш = ±р. При в = 3 (кривая 11) спектральная плотность в значительном диапазоне частот остается почти постоянной.
17.5] ПРЕОБРАЗОВАНИЕ СТАЦИОНАРНОЙ ЛИНЕЙНОЙ СИСТЕМОЙ 447 17.5ф Преобразование стационарной случайной функции стационарной линейной системой В главе 16 мы познакомились с общими правилами линейных пре- образований случайных функций, представленных в виде канони- ческих разложений. Эти правила сводятся к тому, что при линейных преобразованиях случайных функций их, математические ожидания и координатные функции подвергаются тем же линейным преобразо- ваниям. Таким образом, задача линейного преобразования случайной функции сводится к задаче такого же линейного преобразования нескольких неслучайных функций. В случае, когда речь идет о линейных, преобразованиях стацио- нарных случайных функций, задачу удается упростить еще больше. Если и входное воздействие X (t) и реакция системы Y (/) стацио- нарны, задачу преобразования случайной функции можно свести к преобразованию одной-единственной неслучайной функции — спек- тральной плотности Sx(id). Для того чтобы при стационарном воздействии реакция системы могла быть тоже стационарной, очевидно необходимо, чтобы пара- метры системы (например, входящие в нее сопротивления, емкости, индуктивности и т. п.) были постоянными, а не переменными. Усло- вимся называть линейную систему с постоянными параметрами стационарной линейной системой. Обычно работа стационарной линейной системы описывается линейными дифференциальными уравнениями с постоянными коэф- / фнциентами. Рассмотрим задачу о преоб- разовании стационарной случай- ной функции стационарной линей.- рис j7 ной системой. Пусть на вход ли- нейной системы L поступает стационарная случайная функция X(t)\ реакция системы есть, случайная функция Y (t) рис. (17.5.1). Известны характеристики случайной функции X(t)\ математическое ожи- дание тх и корреляционная функция Требуется опреде- лить характеристики случайной функции Y (t) на выходе линейной системы. Так как для решения задачи нам придется преобразовывать не- случайные функции — математическое ожидание и координатные функ- ции, рассмотрим прежде всего ч задачу об определении реакции системы L на неслучайное воздействие x(t). Напишем в операторной форме линейное дифференциальное уравнение с постоянными коэффициентами, связывающее реакцию ту,ку(т)
448 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. П системы у (0 с воздействием х (0: (алря + ая_1р"-1+ ... 4-а1р4-а0)у(/) = = + ••• +М + ^о)*(О. (17.5.1) d л.л. где р = ~----оператор дифференцирования. Уравнение (17.5.1) короче можно записать в виде: Л(Р)Я0 = В,п(Р)*(0, (17.5.2) или, наконец, условно разрешая уравнение (17.5.2) относительно у (0, записать оператор системы в «явном» виде: У(О = 4^ГХ<^ (17.5.3) % Реакцию системы L на воздействие x(t) можно найти путем ре- шения линейного дифференциального уравнения (17.5.1). Как известно из теории дифференциальных уравнений, это решение состоит из двух слагаемых: у^0 и уп(0. Слагаемое уп(0 представляет собой решение уравнения без правой части и определяет так называемые свободные или собственные колебания системы. Это — колебания, совершаемые системой при отсутствии входного воздействия, если система в начальный момент как-то была выведена из состояния равновесия. На практике чаще всего встречаются так называемые устойчивые системы; в этих системах свободные колебания с тече- нием времени затухают. Если ограничиться рассмотрением участков времени, достаточно удаленных от начала процесса, когда все переходные процессы в системе можно считать законченными, и система работает в устано- вившемся режиме, можно отбросить второе слагаемое уп(0 и огра- ничиться рассмотрением только первого слагаемого yj (0. Это первое слагаемое определяет так называемые вынужденные колебания си- стемы под влиянием воздействия на нее заданной функции x(t). В случае, когда воздействие х(0 представляет собой достаточно простую аналитическую функцию, часто удается найти реакцию системы также в виде простой аналитической функции. В частности, когда воздействие представляет собой гармоническое колебание опре- деленной частоты, система отвечает на него также гармоническим колебанием той же частоты, но измененным по амплитуде и фазе. Так как координатные функции спектрального разложения стацио- нарной случайной функции X (0 представляют собой гармонические колебания, то нам прежде всего необходимо научиться определять реакцию системы на гармоническое колебание заданной частоты ш. Эта задача решается очень просто, особенно если гармоническое колебание представлено в комплексной форме.
17.51 ПРЕОБРАЗОВАНИЕ СТАЦИОНАРНОЙ ЛИНЕЙНОЙ СИСТЕМОЙ 449 Пусть на вход системы поступает гармоническое колебание вида: х(О = е/а>/. (17.5.4) Будем искать реакцию системы y(t) также в виде гармонического колебания частоты <о, но умноженного на некоторый комплексный множитель Ф(/(о): у(О = Ф(М^Ч (17.5.5) Множитель Ф(/о)) найдем следующим образом. Подставим функ- цию (17.5.4) в правую, а функцию (17.5.5) в левую часть уравнения (17.5.1). Получим: а„ [Ф (/«) ем\ + a„_j [Ф (/<>) е'-'] + ... ... + aj (Ф (Zu>) elwt] 4- а0 [Ф (/<о) е1а>1} =s нт //m-1 rf = + ••• + (17.5.6) Имея в виду, что при любом к £ е‘" = «.)• [Ф (/.) ?") = ((.)* е“Ф ((.), atK at* и деля обе части уравнения (17.5.6) на ем, получим: Ф (Z(o) \ап (1<в)п + ап~г (1о))п 14~ ... + аг (Zo>) + а0] = = (/»)'"+ 4- ••• +ММ4-А. (17.5.7) Мы видим, что множитель при Ф^ф) представляет собой не .что иное, как многочлен Ап(р) = алрп4“ал-1Рл”1 + ••• “Ьа1Р + ло» в который вместо оператора дифференцирования р подставлено (Zto); аналогично правая часть равенства (17.5.7) есть не что иное, как Уравнение (17.5.7) можно записать в виде: Ф(/ш) Ля(/ш) = Вя,(/а>), откуда 1 Ф(/ш)= В.т^. (17.5.8) Функция Ф (Zcd) носит специальное название частотной характе- ристика линейной системы. Для определения частотной характери- стики достаточно в оператор системы, записанный в явной форме (17.5.3), вместо оператора дифференцирования р подставить Z(o. Таким образом, если на вход линейной системы с постоян- ными параметрами поступает гармоническое колебание вида ем, то реакция системы представляется в виде того же гармонического колебания, умноженного на частотную харак- теристику системы Ф^ф). Пусть на вход системы поступает воз- действие вида x(t) = Uei(at> (17.5.9) 29-3015
450 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ (ГЛ 17 где U — некоторая величина, не зависящая от t. В силу линейности системы величина U выходит за знак оператора, и реакция системы на воздействие (17.5.9) будет равна: у (/) = иФ (Zw) ем. (17.5.10) Очевидно, это свойство сохранится и в том случае, когда вели- чина U будет случайной (лишь бы она не зависела от /). Применим изложенные приемы преобразования гармонических ко- лебаний линейной системой к математическому ожиданию случайной функции X(t) и координатным функциям ее спектрального разло- жения. Представим математическое ожидание тх стационарной случайной функции X (/) как гармоническое колебание нулевой частоты со = 0 и положим в формуле (17.5.8) ш = 0: Ф®=4"<=^-' откуда получаем математическое ожидание на выходе системы: ту = ^т*’ (17.5.12) Перейдем к преобразованию линейной системой существенно слу- чайной части функции X (/), а именно функции X (0 = X (/) — тх. (17.5.13) Для этого представим функцию X (t) на участке (0, Т) в виде спектрального разложения: ^(.0— 5 (17.5.14) k Ж —оо где Uk — некоррелированные случайные величины, дисперсии кото- рых образуют спектр случайной функции X (f). Рассмотрим отдельное слагаемое этой суммы: Xft(0 = £/4?V. (17.5.15) Реакция системы на это воздействие будет иметь вид: t Yk (0 = ик ф (/шА) (17.5.16) Согласно принципу суперпозиции реакция системы на сумму воз- действий равна сумме реакций на отдельные воздействия. Следова- тельно, реакцию системы на воздействие (17.5.14) можно предста- вить в виде спектрального разложения: Г (О- S (/№,)?% Л»-оо
17.6] ПРЕОБРАЗОВАНИЕ СТАЦИОНАРНОЙ ЛИНЕИНОИ СИСТЕМОЙ 451 или, обозначая С/АФ(/<ой) = ИРд, Г(/)= 3 Wketa»\ (17.5.17) Л=—ОО где Wk— некоррелированные случайные величины с математическими ожиданиями, равными нулю. Определим спектр этого разложения. Для этого найдем диспер- сию комплексной случайной величины Wk в разложении (17.5.17). Имея в виду, что дисперсия комплексной случайной величины равна математическому ожиданию квадрата ее модуля, имеем: D [UZJ = М [| икФ (Z<o*)|2] = М [| ик |2|Ф (/шл)12] = = |Ф(/шл)|2Л4[|£/л|2] = |Ф(/шл)|2Ь,. (17.5.18) Мы приходим к следующему выводу: при преобразовании ста- ционарной случайной функции стационарной линейной систе- мой каждая из ординат ее спектра умножается на квадрат модуля частотной характеристики системы для соответ- ствующей частоты. Таким образом, при прохождении стационарной случайной функ- ции через линейную стационарную систему ее спектр определенным образом перестраивается: некоторые частоты усиливаются, некоторые, напротив, ослабляются (фильтруются). Квадрат модуля частотной ха- рактеристики (в зависимости от шл) и показывает, как реагирует система на колебания той или иной частоты. Аналогично тому, как это делалось раньше, перейдем в спек- тральном представлении случайной функции к пределу при Т->оо и от дискретного спектра — к спектральной плотности. Очевидно, спектральная плотность на выходе линейной системы получается из спектральной плотности на входе тем же умножением на |Ф(/а>)|2, как и ординаты дискретного спектра: Sy (ш) = | Ф (Z(o)|2 Sx (ш). (17.5.19) Таким образом, получено весьма простое правило: При преобразовании стационарной случайной функции стационарной линейной системой ее спектральная плотность умножается на квадрат модуля частотной характеристика системы. Пользуясь этим правилом, мы легко можем решить поставленную выше задачу: по характеристикам случайной функции на входе линей- ной системы найти характеристики случайной функции на ее выходе. Пусть на вход стационарной линейной системы с оператором (17.5.3) поступает стационарная случайная функция X (/) с матема- тическим ожиданием тх и корреляционной функцией kx(x). Требуется найти математическое ожидание ту и корреляционную функцию Лу(т) случайной функции Y (t) на выходе системы.
452 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 Задачу будем решать в следующем порядке. 1. Находим математическое ожидание на выходе: ту = ^-тх. (17.5.20) 2. По корреляционной функции kx{t) находим спектральную плот- ность на входе (см. формулу (17.4.12)): — со SXH^~ fkx(y)e~^dz^ (17.5.21) — ОО 3. По формуле (17.5.8) находим частотную характеристику си- стемы и квадрат ее модуля: |Ф«.)|-=.1^<";>|1,-. (17.5.22) 4. Умножая спектральную плотность на входе на квадрат моду- ля частотной характеристики, находим спектральную плотность на выходе: 5у(о)) = |Ф(/о))|2 5ж((о). (17.5.23) 5. По спектральной плотности Sy((o) находим корреляционную функцию ky(x) на выходе системы: Лу(т) = J Sy (ш) el™ d<o. (17.5.24) — ОО Таким образом, поставленная задача решена. Во многих задачах практики нас интересует не вся корреляци- онная функция &у(х) на выходе системы, а только дисперсия Dy, равная п Dy = ^(0). Тогда из формулы (17.5.24) получаем при т = 0 гораздо более простую формулу: Dy = J Sy (о>) d(o, — ob или, учитывая четность функции Sy(<o), Dy = 2fSy(u>)da>. (17.5.25) о !) Для простоты записи мы здесь опускаем знак * в обозначении спек- тральной плотности.
17.5] ПРЕОБРАЗОВАНИЕ СТАЦИОНАРНОЙ ЛИНЕЙНОЙ СИСТЕМОЙ 453 (17.5.26) или Пример. Работа линейной динамической системы описывается линей- ~ ным дифференциальным уравнением первого порядка: (fliP + «о) У (0 = (М + М х (0. а1Р“Га0 На вход системы поступает стационарная случайная функция X (t) с ма- тематическим ожиданием тх и корреляционной функцией Ar(t) = D,<>-a|T|, Х17.5.27) где «— положительный коэффициент (см. пример 1 п° 17.4). Найти матема- тическое ожидание ту и дисперсию Dy на выходе системы *). Решение. По формуле (17.5.20) имеем: ~ тх. у а0 х Очевидно, величина /иу не зависит от параметра а, растет при возра- стании £0 и убывает при возрастании а0* Спектральную плотность на входе определяем как в примере 1 п° 17.4: (й)) — е-i(ox dt — - е а л(<х* + й>2) и квадрат ее модуля: ,2 * (см. рис. 17.4.4). По формуле (17.5.8) находим частотную характеристику системы: ф (ftt>) = ajta-l-ao । Ф (/(й) । а = l¥l±.6ol2. = 1 ' Л l^ + ool2 Затем определяем спектральную плотность на выходе системы: D- £?<о2 + bl а Sy (о>) = | Ф (Z<0)|» Sr (<о) = 1 т ° -5—2 . Далее по формуле (17.5.25) определяем дисперсию на выходе: п _2DX f Ъ^ + Ь* а О Выбирая для корреляционной функции случайной функции X (/) выра- жение типа (17.5.27), широко применяемое на практике ввиду его простоты, необходимо иметь в виду следующее. Строго говоря, случайная функция X (/), имеющая корреляционную функцию такого вида, недифференцируема, и, сле^ довательно, для нее нельзя писать дифференциальные уравнения в обычном смысле слова. Это затруднение можно* обойти, если рассматривать выраже- ние (17.5.27) для корреляционной функции только как приближенное.
454 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ (ГЛ 17 Для вычисления интеграла разложим подынтегральное выражение на простые дроби: 62<о2 -f- а А В а2а>2-|-«0 а2 —j— со2 а2со2 а2-|-<о2 и определим коэффициенты: / = а 2 2 2 > ар — Oq а2 2 А2 д — 2. £> —- Я 2 9 о * После интегрирования получим: £>у == Dx-------------• Mi(aia + *o) В заключение данного п° упомянем о том, как преобразуется линейной системой стационарная случайная функция, содержащая в качестве слагаемого обычную случайную величину: • - Xx(t) = U.+X(t)t (17.5.28) где UQ — случайная величина с дисперсией Do, X (t) — стационарная случайная функция. Реакция системы на воздействие Xx(t) найдется как сумма реак- ций на отдельные воздействия в правой части (17.5.28). Реакцию на воздействие X (t) мы уже умеем находить. Воздействие Uo мы рас- смотрим как гармоническое колебание нулевой частоты о) = 0; со- гласно формуле (17.5.11) реакция на него будет равна V0=^0- (17.5.29) Слагаемое Vo просто прибавится к реакции системы на воздей- ствие X (/). 17.6. Применения теории стационарных случайных процессов к решению задач, связанных с анализом и синтезом динамических систем В предыдущем п° был рассмотрен вопрос о преобразовании ста- ционарной случайной функции стационарной линейной системой и получены простые математические приемы решения этой задачи. Преобразование случайной функции свелось к простейшему пре- образованию (умножению на квадрат модуля частотной характеристи- ки) одной-единственной функции: спектральной плотности. Такая про- стота спектральной теории стационарных случайных процессов делает ее незаменимым аппаратом при исследовании линейных динамических систем, работающих в условиях натп^ия случайных возмущений (помех).
17.61 ПРИМЕНЕНИЯ ТЕОРИИ СТАЦИОНАРНЫХ ПРОЦЕССОВ * 455 Обычно при решении практических задач нас интересует не сама по себе корреляционная функция ky (т) на выходе системы, а связан- ная с нею дисперсия Dy = £у(0), которая характеризует ошибки системы, вызванные поступающими на нее случайными возмущениями, и во многих случаях может служить критерием точности работы системы. При исследовании динамических систем методами теории случай- ных функций решаются два вида задач, которые можно назвать «пря- мыми» и «обратными». Прямая задача состоит в следующем. Анализируется заданная линейная динамическая система с вполне определенными параметрами, работа которой описывается линейным дифференциальным уравнением: (anPn + an-iPn~' + ••• +«1Р + «о)У(0 = = + + ••• +М-Мо)х(О. (17.6.1) Требуется исследовать точность работы системы при наличии на ее входе стационарного случайного воздействия — так называемой «стационарной помехи». Для этого прежде всего исследуется случай- ная помеха, определяются ее корреляционная функция и спектральный состав. Далее, описанными выше методами находятся спектр и дис- персия случайной функции на выходе системы. Дисперсия на выходе, очевидно, зависит как от характеристик случайного воздействия на входе, так и от коэффициентов уравнения. Решая такую задачу, можно оценить точность работы заданной системы в условиях раз? личного рода помех. Обратная задача состоит в том, чтобы так выбрать коэффициенты уравнения (17.6.1), чтобы при заданном спектральном составе помехи ошибки на выходе системы были минимальными. При заданных ха- рактеристиках случайной функции (помехи) на входе системы диспер- сия на выходе зависит от всей совокупности коэффициентов урав- нения: Dy — Dy(an, оЛ-1, ...» av aQt bmt bm~lt ..., bv b^). Коэффициенты уравнения зависят от конструктивных параметров ^системы, и некоторыми из них при проектировании системы можно в достаточно широких пределах распоряжаться. Задача выбора рацио- нальных значений этих параметров может быть решена исходя из того требования, чтобы дисперсия Dy была минимальна. Следует оговориться, что на практике часто не удается пол- ностью удовлетворить этому требованию. Действительно, выведенные нами выражения для корреляционной функции и дисперсии на выходе системы справедливы только для значений времени /, достаточно удаленных от начала случайного процесса, когда все переходные процессы в системе, связанные с ее свободными колебаниями, успели
456 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. !7 уже затухнуть. В действительности же часто приходится применять линейные динамические системы (прицелы, счетно-решающие меха- низмы, следящие системы и т. п.) на ограниченном участке времени; при этом быстрота затухания переходных процессов в системе суще- ственно зависит от ее конструктивных параметров, т. е. от тех же коэффициентов уравнения (17.6.1). Если выбрать эти коэффициенты так, чтобы они обращали в минимум дисперсию на выходе (для достаточно удаленных моментов времени), это, как правило, приво- дит к тому, что на выходе системы появляются другие ошибки, свя- занные с тем, что переходные процессы в системе еще не успели затухнуть. Эти ошибки обычно называют динамическими ошибками. В связи с ограниченностью времени применения линейных систем и наличием динамических ошибок на практике обычно-приходится решать задачу о ^рдци^щадьдом • выбора -параметров системы не на чистом прйнщГпе'Минимума дисперсии, а с учетом динамических оши- бок. Рациональное решение задачи находится как компромиссное, при котором, с одной стороны, дисперсия на выходе системы достаточно мала, с другой стороны—динамические ошибки не слишком велики. В случае, когда ищутся оптимальные параметры системы с учетом как дисперсии, так и систематических динамических ошибок, часто в качестве критерия точности работы системы выбирают второй на- чальный момент а2 на выходе системы: a2 = Dy + ^. (17.6.2) где Dy — дисперсия, ту — систематическая ошибка на выходе системы. При этом параметры системы выбирают так, чтобы они обращали в минимум величину а2. Иногда в качестве критерия для оценки системы выбирают не дисперсию и не второй начальный момент, а какую-либо другую величину, связанную с целевым назначением системы. Например, при исследовании прицельных устройств и систем управления, предназна- ченнных для стрельбы, к выбору их параметров часто подходят, исходя из максимума вероятности поражения цели. Упомянем еще об одной типичной задаче, связанной с рациональ- ным конструированием динамических систем. До сих пор мы рассмат- ривали только задачу о рациональном выборе коэффициентов урав- нения (17.6.1), самый же вид уравнения считался заданным. При решении задач, связанных с так называемым синтезом динамических систем, задача ставится более широко. В частности, ставится во- прос о рациональном выборе самого вида уравнения или, еще шире, задача об определении оптимального оператора динамической системы. Такого рода задачи в настоящее время успешно решаются методами теории случайных функций. При решении практических задач, связанных с анализом и син- тезом динамических систем, часто не удается ограничиться кругом
17.7] ЭРГОДИЧЕСКОЕ СВОЙСТВО СТАЦИОНАРНЫХ ФУНКЦИЯ 457 стационарных случайных процессов и относящимся к нему аппаратом спектральной теории. Однако в ряде случаев» несколько видоизменив этот аппарат, можно применить его и для нестационарных процессов. На практике часто встречаются так называемые «квазистационарные» случайные функции и «квазистационарные» динамические системы; они характерны тем, что изменения характеристик случайных функ- ций и параметров системы со временем протекают сравнительно мед- ленно. Для таких случайных процессов В. С. Пугачевым разработан метод, по структуре мало отличающийся от спектрального, но при- менимый в более широком диапазоне условий1). 17.7» Эргодическое свойство стационарных случайных функций Рассмотрим некоторую стационарную случайную функцию X (t) и предположим, что требуется оценить ее характеристики: матема- тическое ожидание тх и корреляционную функцию kx(x). Выше (см. п° 15.4) были изложены способы получения этих характеристик из опыта. Для этого нужно располагать известным числом реализа- ций случайной функции X (/). Обрабатывая эти реализации, можно найти оценки для математического ожидания mx(t) и корреляционной функции Kx(tt f). В связи с ограниченностью числа наблюдений функция mx(t) не будет строго постоянной; ее придется осреднить и заменить некоторым постоянным тх\ аналогично, осредняя значе- ния Kx(tt t') для разных т = — /, получим корреляционную функ- цию kx (т). Этот метод обработки, очевидно, является довольно сложным и громоздким и к тому же состоит из двух этапов: приближенного определения характеристик случайной функции и также приближен- ного осреднения этих характеристик. Естественно возникает вопрос: нельзя ли для стационарной случайной функции этот сложный, двух- ступенчатый процесс обработки заменить более простым, который заранее базируется на предположении, что математическое ожидание не зависит от времени, а корреляционная функция—от начала отсчета? Кроме того, возникает вопрос: при обработке наблюдений над стационарной случайной функцией является ли существенно необхо- димым располагать несколькими реализациями? Поскольку случай- ный процесс является стационарным и протекает однородно по временив естественно предположить, что одна-единственная реализа- ция достаточной продолжительности может служить достаточным опыт- ным материалом для получения характеристик случайной функции» ’) См. В. С. Пугачев. Теория случайных функций и ее применение к задачам автоматического управления, Физматгиз, 1962.
458 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 При более подробном рассмотрении этого вопроса оказывается, что такая возможность существует не для всех случайных процессов: не всегда одна реализация достаточной продолжительности оказы- вается эквивалентной множеству отдельных реализаций. Для примера рассмотрим две стационарные случайные функции X}(t) и Х2(/), представленные совокупностью своих реализаций на рис. 17.7.1 и 17.7.2. Для случайной функции Хх (/) характерна следующая особенность: каждая из ее реализаций обладает одними и теми же характерными признаками: средним значением, вокруг которого происходят колеба- ния, и средним размахом этих колебаний. Выберем произвольно одну из таких реализаций и «продолжим мысленно опыт, в результате которого она получена, на некоторый участок времени Т. Очевидно, при достаточно большом Т эта одна реализация сможет дать нам достаточно хорошее представление о свойствах случайной функции в целом. В частности, осредняя значения этой реализации вдоль оси абсцисс — по времени, мы должны получить приближенное значение математического ожидания случайной функции; осредняя квадраты отклонений от этого среднего, мы должны получить приближенное значение дисперсии, и т. д. Про такую случайную функцию говорят, что она обладает эрго- дическим свойством. Эргодическое свойство состоит в том, что каж- дая отдельная реализация случайной функции является как бы «пол- номочным представителем» всей совокупности возможных реализаций;
17.7! ЭРГОДИЧЕСКОЕ СВОЙСТВО СТАЦИОНАРНЫХ ФУНКЦИИ 459 одна реализация достаточной продолжительности может заменить при обработке множество реализаций той же общей продолжительности1). Рассмотрим теперь случайную функцию X2(t). Выберем произ- вольно одну из ее реализаций, продолжим ее мысленно на доста- точно большой участок времени и вычислим ее среднее значение по времени на всем участке наблюдения. Очевидно, это среднее значе- ние для каждой реализации будет свое и может существенно отли- чаться от математического ожидания случайной функции, построенного как среднее из множества реализаций. Про такую случайную функ- цию говорят, что она не обладает эргодическим свойством. Если случайная функция X\t) обладает эргодическим свойством, то для нее среднее по времени (на достаточно большом участке на- блюдения) приближенно равно среднему по множеству наблю- дений. То же будет верно и для X2(t), X (/) • X (/4-т) и т. д. Сле- довательно, все характеристики случайной функции (математическое ожидание, дисперсию, корреляционную функцию) можно будет при- ближенно определять по одной достаточно длинной реализации. - Какие же стационарные случайные функции обладают, а какие не обладают эргодическим свойством? Поясним этот вопрос наглядно, исходя из примера. Рассмотрим^ случайную функцию a (t) — колебания угла атаки самолета на уста- новившемся режиме горизонтального полета. Предположим, что по- лет происходит в каких-то типичных средних метеорологических усло- виях. Колебания угла атаки вызваны случайными возмущениями, свя- занными с турбулентностью атмосферы. Среднее значение угла атаки, около которого происходят колебания, зависит от высоты полета Н, Зависит от этой высоты и размах колебаний: известно, что в нижних слоях атмосферы турбулентность сказывается сильнее, чем в верхних. Рассмотрим случайную функцию а(/) — колебания угла атаки на заданной высоте Н. Каждая из реализаций этой случайной функ- ции осуществляется в результате воздействия одной и той же группы случайных факторов и обладает одними и теми же вероятностными характеристиками; случайная функция а (/) обладает эргодическим свойством (рис. 17.7.3). Представим себе теперь, что рассматривается случайная функция а(/) не для одной высоты Н, а для целого диапазона, внутри кото- рого задан какой-то закон распределения высот (например, закон равномерной плотности). Такая случайная функция, оставаясь стацио- нарной, очевидно, уже не будет обладать эргодическим свойством; ее возможные реализации, осуществляющиеся с какими-то вероятностями, имеют различный характер (рис. 17.7.4). *) Строго говоря, следовало бы сказать не-«каждая отдельная реализа- ция*, а «почти каждая*. Дело в том, что в отдельных случаях могут по- являться реализации, не обладающие таким свойством, но вероятность по- явления такой реализации равна нулю.
460 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 Для этого случайного процесса характерно то, что он как бы «разложим» на более элементарные случайные процессы; каждый из них осуществляется с некоторой вероятностью и имеет свои индиви- дуальные характеристики. Таким образом, разложимость, внутренняя неоднородность случайного процесса, протекающего с не- , которой вероятностью по тому или другому типу, есть физическая причина неэргодичности этого процесса. В частности, неэргодичность случайного процесса может быть связана с наличием в его составе слагаемого в виде обычной случай- ной величины (т. е. наличие в спектре случайного процесса, помимо непрерывной части, конечной дисперсии при частоте 0). Действительно, рассмотрим случайную функцию Z(t) = X(t)+Y. (17.7.1) где X (/) — эргодическая стационарная случайная функция с характе- ристиками тх, kx(r)t К —случайная величина с характеристиками ту и Оу; предположим к тому же, что X (t) и Y некоррелированны. Определим характеристики случайной функции Z(t). Согласно общим правилам сложения случайных функций (см. п° 15.8) имеем: mz — mx 4~/пу, (17.7.2) kz(y) = kx(x) + Dr (\7Л.Ъ) Из формул (17.7.2) и (17.7.3) видно, что случайная функция Z(/) является стационарной. Но обладает ли она эргодическим свойством? Очевидно, нет. Каждая ее реализация будет по. характеру отличаться от других, будет обладать тем или иным средним по времени зна-
17.7] ЭРГОДИЧЕСКОЕ СВОЙСТВО СТАЦИОНАРНЫХ ФУНКЦИЙ 461 чением в зависимости от того, какое значение приняла случайная величина /(рис. 17.7.5). Об эргодичности или неэргодичности случайного процесса может непосредственно свидетельствовать вид его корреляционной функции. Действительно, рассмотрим корреляционную функцию неэргодической случайной функции (17.7.1). Она отличается от корреляционной функ- ции случайной функции X (t) наличием постоянного слагаемого Dy Рис. 17.7.5. (рис. 17.7.6). В то время как корреляционная функция kx(z) стре- мится к нулю при т —> оо (корреляционная связь между значениями случайной функции неограниченно убывает по мере увеличения рас- стояния между ними), функция Лх(т) уже не стремится к нулю при >оо; а приближается к постоянному значе- нию Dy. На практике мы не имеем возможности иссле- довать случайный процесс и его корреляционную функцию на бесконечном участке времени; участок значений т, с которым мы имеем дело, всегда огра- ничен. Если при этом корреляционная функция стационарного случайного процесса при увеличении т не убывает, а, начиная с некоторого т, остается приблизительно постоянной, это обычно есть признак того, что в составе случайной функции имеется слагаемое в виде обычной случайной величины и что процесс не является эрго- дическим. Стремление же корреляционной функции к нулю при /->оо говорит в пользу эргодичности процесса. Во всяком случае оно
462 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ, 17 достаточно для того, чтобы математическое ожидание функции можно было определять как среднее по времени. При решении практических задач часто суждение об эргодичности случайного процесса выносится не на основе исследования поведения корреляционной функции при т->оо, а на основании физических соображений, связанных с существом процесса (его предположительной «разложимостью» или «неразложимостью» на элементарные процессы различного типа, появляющиеся с некоторыми вероятностями). 17.8. Определение характеристик эргодической стационарной случайной функции по одной реализации Рассмотрим стационарную случайную функцию X (/), обладающую эргодическим свойством, и предположим, что в нашем распоряжении имеется всего одна реализация этой случайной функции, но зато на достаточно большом участке времени Т. Для эргодической стационар- ной случайной функции одна реализация достаточно большой про- должительности практически эквивалентна (в смысле объема сведений о случайной функции) множеству реализаций той же общей продол- жительности; характеристики Случайной функции могут быть прибли- женно определены не как средние по множеству наблюдений, а как средние по времени t. В частности, при достаточно большом Т математическое ожидание тх может быть приближенно вычислено по формуле т f (17.8.1) О Аналогично может быть приближенно найдена корреляционная функция kx(x) при любом т. Действительно, корреляционная функция, по определению, представляет собой не что иное, как математике* ское ожидание случайной функции X (/) X (t 4- т): kx (т) = М [X (О X (/ + т)]. (17.8.2) Это математическое ожидание также, очевидно, может быть прибли- женно вычислено как среднее по времени. Фиксируем некоторое значение т и вычислим указанным способом корреляционную функцию kx (т). Для этого удобно предварительно «центрировать» данную реализацию х(/), т. е. вычесть из нее мате- матическое ожидание (17.8.1): x(t) = x(f)— тх. (17.8.3) *) Для простоты записи мы здесь опускаем знак при характеристиках случайной функции, означающий, что мы имеем дело не с самими характе- ристиками, а с их оценками.
17.8] ОПРЕДЕЛЕНИЕ ХАРАКТЕРИСТИК ЭРГОДИЧЕСКОЙ ФУНКЦИИ 463 Вычислим при заданном *с математическое ожидание случайной функции X (t) X (/ + т) как среднее по времени. При этом, очевидно, нам придется учитывать не весь участок времени от 0 до Т, а не- сколько меньший, так как второй сомножитель Х(/4-т) известен нам не для всех /, а только для тех, для которых Вычисляя среднее по времени указанным выше способом, получим: Т-т kx(’)« уёгт / ' * (0 * (* -Н) dt. (17.8.4) О Вычислив интеграл (17.8.4) для ряда, значений т, можно прибли- женно воспроизвести по точкам весь ход корреляционной функции» На практике обычно интегралы (17.8.1) и (17.8.4), заменяют конечными суммами. Покажем, как это делается. Разобьем интервал записи случайной функции на п равных частей длиной и обозна- чим середины полученных участков (рис. 17.8.1). Пред- ставим интеграл (17.8.1) как сумму интегралов по элементарным участкам Д/ и на каждом из них вынесем функцию х (/) из-под знака интеграла средним значением, соответствующим центру интервала х (Q. Получим приближенно: п /=1 ИЛИ п (17-8;5) /=1 Аналогично можно вычислить корреляционную функцию Для значе- ний т, равных О, Д/, 2 At, ... Придадим, например, величине т значение А . тТ т = тп At =--- п И вычислим интеграл (17.8.4), деля интервал интегрирбвания п п
464 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 на п — т равных участков длиной А/ и вынося на каждом из них функцию -V (/) д: (/—|- О за знак интеграла средним значением. Получим: л-т kjc ) = (л —т) Г Т 2 Х Х 1=1 или окончательно - л-т i=l (17.8.6) Вычисление корреляционной функции по формуле (17.8.6) произ- водят для /и = 0, 1, 2, ... последовательно вплоть до таких значе- ний т, при которых корреляционная функция становится практически равной нулю или начинает совершать небольшие нерегулярные коле- бания около нуля. Общий ход функции kx(x) воспроизводится по отдельным точкам (рис. 17.8.2). Для того чтобы математическое ожидание тх и корреляционная функция А (т) были определены с удовлетворительной точностью, Рис. 17.8.2. нужно, чтобы число точек п было достаточно велико (порядка сотни, а в-некоторых случаях даже не- скольких сотен). Выбор длины эле- ментарного участка Д£ опреде- ляется характером изменения слу- чайной функции. Если случайная функция изменяется сравнительно плавно, участок Д/ можно выби- рать ббльшим, чем когда она со- вершает резкие и частые колеба- ния. Чем более высокочастотный состав имеют колебания, образую- щие случайную функцию, тем чаще нужно располагать опорные точки при обработке. Ориентировочно можно рекомендовать выбирать элементарный участок Д/ так, чтобы на полный период самой высо- кочастотной гармоники в составе случайной функции приходилось порядка 5—10 опорных точек. Часто выбор опорных точек вообще не зависит от обрабатываю- щего, а диктуется темпом работы записывающей аппаратуры. В этом случае следует вести обработку непосредственно полученного из опыта материала, не пытаясь вставить между наблюденными значениями про- межуточные, так как это не может повысить точности результата, а излишне осложнит обработку. Пример. В условиях горизонтального полета самолета произведена запись вертикальной перегрузки, действующей на самолет. Перегрузка ре- гистрировалась на участке времени 200 сек с интервалом 2 сек. Результаты
17.8] ОПРЕДЕЛЕНИЕ ХАРАКТЕРИСТИК ЭРГОДИЧЕСКОЙ ФУНКЦИИ 465 приведены в таблице 17.8.1. Считая процесс изменения перегрузки стационар- ным, определить приближенно математическое ожидание перегрузки т^, дисперсию Dn и нормированную корреляционную функцию (т). Аппрокси- мировать р^ (т) какой-либо аналитической функцией, найти и построить спектральную плотность случайного процесса. Таблица 17.8.1 / (сек) Перегрузка АГ(О / (сек) Перегрузка t (сек) Перегрузка W) t (сек) Перегрузка N(t) 0 1,0 50 1,0 100 1,2 150 0,8 2 1,3 52 1,1 102 1,4. 152 0,6 4 1,1 54 1,5 104 0,8 154 0,9 6 0,7 56 1,0 106 0,9 156 1,2 8 0,7 58 0,8 108 1,0 158 1,3 10 1,1 60 1,1 110 0,8 160 0,9 12 1,3 62 1,1 112 0,8 162 1,3 14 0,8 64 1,2 114 1,4 164 1,5 16 0,8 66 1,0 116 1,6 166 1,2 18 0,4 68 0,8 118 1,7 168 1,4 20 0,3 70 0,8 120 1,3 170 1,4 22 0,3 72 1,2 122 1,6 172 0,8 24 0,6 74 0,7 124 0,8 174 0,8 26 0,3 76 0,7 126 1,2 176 1,3 28 0,5 78 ' 1,1 128 0,6 178 1,0 30 0,5 80 1,5 130 1,0 180 0,7 32 0,7 82 1,0 132 0,6 182 1,1 34 0,8 84 0,6 134 0,8 184 0,9 36 0,6 86 0,9 136 0,7 186 0,9 38 1,0 88 0,8 138 0,9 188 1,1 40 0,5 90 0,8 140 1,3 190 1,2 42 1,0 92 0,9 142 1,5 192 1,3 44 0,9 94 0,9 144 1,1 194 1,3 46 1,4 96 0,6 146 0,7 196 1,6 48 1,4 98 0,4 148 1,0 198 1,5 ' Решение. По формуле (17.8.5) имеем: 100 mN= 100 ~ °’98’ Центрируем случайную функцию (табл. 17.8.2). Возводя в квадрат все значения N (t) и деля сумму на п = 100. получим приближенно дисперсию случайной функции N (t): 100 2 W/)]2 = —100—w0’1045
466 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ (ГЛ. 17 Таблица 17.8.2 t (сек) t (сек) N(t) * t (сек) N(t) t (сек) N(t) 0 0,02 50 100 0,22 150 — 0,18 2 0,32 52 0,12 102 0,42 152 — 0,38 4 0,12 54 0,52 104 — 0,18 154 — 0,08 6 -0,28 56 0,02 106 — 0,08 156 0,22 8 — 0,28 58 — 0,18 103 0,02 158 0,32 10 0,12 60 0,12 ПО — 0,18 160. — 0,08 12 0,32 62 0,12 112 — 0,18 162 0,32 14 — 0,18 64 0,22 114 0,42 164 0,52 16 — 0,18 66 0,02 116 0,62 166 0,22 18 — 0,58 68 — 0,18 118 0,72 168 0,42 20 — 0,68 70 — 0,18 120 0,32 170 0,42 22 — 0,68 72 0,22 122 0,62 172 — 0,18 24 — 0,38 74 — 0,28 124 г-0,18 174 — 0,18 26 — 0,68 76 — 0,28 126 0,22 176 0,32 . 28 — 0,48 78 0,12 128 — 0,38 178 0,02 30 — 0,48 80 0,52 130 0,02 180 — 0,28 32 — 0,28 82 0,02 132 — 0,38 182 0,12 34 — 0,18 84 — 0,38 134 — 0,18 184 . — 0,08 36 — 0,38 86 — 0,08 136 — 0,28 186 — 0,08 38 0,02 88 -0,18 138 — 0,08 188 0,12 40 -0,48 90 — 0,18 140 0,32 190 0,22 42 0,02 92 — 0,08 142 0,52 192 0,32 44 — 0,08 94 — 0,08 144 0,12 194 0,32 46 0,42 96 — 0,38 146 — 0,28 196 0,62 48 0,42 98 -0,58 148 0,02 198 0,52 и среднее квадратическое отклонение: 0,323. Перемножая значения N(t), разделенные интервалом т = 2, 4, 6,...» и деля сумму произведений соответственно на л —1=99; л —2 = 98; л —3 = 97, ...» получим значения корреляционной функ- ции Нормируя корреляционную функцию делением на £)у = 0,1045, по- лучим таблицу значений функции рдД^) (табл. 17.8.3). График функции р^. (т) представлен на рис. 17.8.3 в виде точек, соединенных пунктиром. Не вполне гладкий ход кор- реляционной функции может быть объ- яснен недостаточным объемом экспери- ментальных данных (недостаточной про- должительностью опыта), в связи с чем случайные неровности в ходе функции не успевают сгладиться. Вычисление рдг (т) продолжено до таких значений т, при которых фактически корреляционная связь пропадает.
17.8] ОПРЕДЕЛЕНИЕ ХАРАКТЕРИСТИК ЭРГОДИЧЕСКОЙ ФУНКЦИИ 467 Для того чтобы сгладить явно незакономерные колебания эксперимен- тально найденной функции Рдг(т)> заменим ее приближенно функцией вида: где параметр а подберем методом наименьших .квадратов (см. п° 14.5), Таблица 17.8.3 т Р^('0’=г”а,'с1 0 1,000 1,000 2 0,505 0,598 4 0,276 0,358 6 0,277 0,214 8 0,231 0,128 10 —0,015 0,077 12 0,014 0,046 14 0,071 0,027 Применяя этот метод, находим а = 0,257. Вычисляя значения функции р^(т) при : = 0,2, 4, ..., построим график сглаживающей кривой. На рис. 17.8.3 он проведен сплошной линией. В последнем столбце таблицы 17.8.3 приве- дены значения функции р^(т). Рис. 17.8.4. Пользуясь приближенным выражением корреляционной функции (17.8.6), получим (см. п° 17.4, пример 1) нормированную спектральную плотность слу- чайного процесса в виде: * °’257 * w — я (а2 + <»2) “ л (0,2572 + <й2) * График нормированной спектральной плотности представлен на рис. 17.8.4.
ГЛАВА 18 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ 18.1. Предмет и задачи теории информации Теорией информации называется наука, изучающая количествен- ные закономерности, связанные с получением, передачей, обработкой и хранением информации. Возникнув в 40-х годах нашего века из практических задач теории связи, теория информации в настоящее время становится необходимым математическим аппаратом при изуче- нии всевозможных процессов управления. Черты случайности, присущие процессам передачи информации, заставляют обратиться при изучении этих процессов к вероятностным методам. При этом не удается ограничиться классическими методами теории вероятностей, и возникает необходимость в создании новых вероятностных категорий. Поэтому теория информации представляет собой не просто прикладную науку, в которой применяются вероят- ностные методы исследования, а должна рассматриваться как раздел теории вероятностей. Получение, обработка, передача и хранение различного рода ин- формации — непременное условие работы любой управляющей системы. В этом процессе всегда происходит обмен информацией между раз- личными звеньями системы. Простейший случай — передача информа- ции от управляющего устройства к исполнительному органу (передача команд). Более сложный случай — замкнутый контур управления, в ко- тором информация о результатах выполнения команд передается уп- равляющему устройству с помощью так называемой «обратной связи». Любая информация для того, чтобы быть переданной, должна быть соответственным образом «закодирована», т. е. переведена на язык специальных символов или сигналов. Сигналами, передающими информацию, могут быть электрические импульсы, световые или зву- ковые колебания, механические перемещения и т. д. Одной из задач теории информации является отыскание наиболее экономных методов кодирования, позволяющих передать заданную информацию с помощью минимального количества символов. Эта задача решается как при отсутствии, так и при наличии искажений (помех) в канале связи.
16.2] ЭНТРОПИЯ 469 Другая типичная задача теории информации ставится следующим образом: имеется источник информации (передатчик), непрерывно вы- рабатывающий информацию, и канал связи, по которому эта инфор- мация передается в другую инстанцию (приемник). Какова должна быть пропускная способность канала связи для того, чтобы канал «справлялся» со своей задачей, т. е. передавал всю поступающую информацию без задержек и искажений? Ряд задач теории информации относится к определению объема запоминающих устройств, предназначенных для хранения информации, к способам ввода информации в эти запоминающие устройства и вы- вода ее для непосредственного использования. Чтобы решать подобные задачи, нужно прежде всего научиться измерять количественно объем передаваемой или хранимой информа- ции, пропускную способность каналов связи и их чувствительность к помехам (искажениям). Основные понятия теории информации, из- лагаемые в настоящей главе, позволяют дать количественное описа- ние процессов передачи информации и наметить некоторые матема- тические закономерности, относящиеся к этим процессам. 18.2. Энтропия как мера степени неопределенности состояния физической системы Любое сообщение, с которым мы имеем дело в теории информа- ции, представляет собой совокупность сведений о некоторой физи- ческой системе. Например, на вход автоматизированной системы управления производственным цехом может быть передано сообщение о нормальном или повышенном проценте брака, о химическом со- ставе сырья или температуре в печи. На вход системы управления средствами противовоздушной обороны может быть передано сооб- щение о том, что в воздухе находятся две цели, летящие на опре- деленной высоте, с определенной скоростью. На тот же вход может быть передано сообщение о том, что на определенном аэродроме в данный момент, находится такое-то количество истребителей в бое- вой готовности, или что аэродром выведен из строя огневым воз- действием противника, или что первая цель сбита, а вторая продол- жает полет с измененным курсом. Любое из этих сообщений опи- сывает состояние какой-то физической системы. Очевидно, если бы состояние физической системы было известно заранее, не было бы смысла передавать сообщение. Сообщение при- обретает смысл только тогда, когда состояние системы заранее не- известно, случайно. Поэтому в качестве объекта, о котором передается информация, мы будем рассматривать некоторую физическую систему X, которая случайным образом может оказаться в том или ином состоянии, т. е. систему, которой заведомо присуща какая-то степень
470 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 неопределенности. Очевидно, сведения, полученные о системе, будут, вообще говоря, тем ценнее и содержательнее, чем больше была неопределенность системы до получения этих сведений («априори»). Возникает естественный вопрос: что значит «ббльшая» или «мень- шая» степень неопределенности и чем можно ее измерить? Чтобы ответить на этот вопрос, сравним между собой две си- стемы, каждой из которых присуща некоторая неопределенность. В качестве первой системы возьмем монету, которая в результате бросания может оказаться в одном из двух состояний: 1) выпал герб и 2) выпала цифра. В качестве второй — игральную кость, у которой шесть возможных состояний: 1, 2, 3, 4, 5 и 6. Спрашивается, не- определенность какой системы больше? Очевидно, второй, так как у нее больше возможных состояний, в каждом из которых она мо- жет оказаться с одинаковой вероятностью. Может показаться, что степень неопределенности определяется числом возможных состояний системы. Однако в общем случае это не так. Рассмотрим, например, техническое устройство, которое мо- жет быть в двух состояниях: 1) исправно и 2) отказало. Предполо- жим, что до получения сведений (априори) вероятность исправной работы устройства 0,99, а вероятность отказа 0,01. Такая система обладает только очень малой степенью неопределенности: почти на- верное можно предугадать, что устройство будет работать исправно. При бросании монеты тоже имеется два возможных состояния, но степень неопределенности гораздо больше. Мы видим, что степень неопределенности физической системы определяется не только числом ее возможных состояний, но и вероятностями состояний. Перейдем ю общему случаю. Рассмотрим некоторую систему X, которая может принимать конечное множество состояний: xv х2, ... ...» хп с вероятностями pv р2....рп, где Pi=P(X~Xl) — (18.2.1) — вероятность того, что система X примет состояние xL (символом Л — Xt обозначается событие: система находится в состоянии xf). п Очевидно, 2 Pi — !• i=l Запишем эти данные в виде таблицы, где в верхней строке пе- речислены возможные состояния системы, а в нижней — соответствую- щие вероятности: Xi Xj х2 . . . хп Pl Pl Р2 ... Рп
18.2] ЭНТРОПИЯ 471 Эта табличка по написанию сходна с рядом распределения пре- рывной случайной величины X с возможными значениями хр х2......хл, имеющими вероятности рР р2, •••» Ргг И действительно, между физической системой X с конечным множеством состояний и пре- рывной случайной величиной много общего; для того чтобы свести первую ко второй, достаточно приписать каждому состоянию какое-то числовое значение (скажем, номер состояния). Подчеркнем, что для описания степени неопределенности системы совершенно неважно, какие именно значения хр х2, ..., хп записаны в верхней строке таблицы; важны только количество этих значений и их ве- роятности. В качестве меры априорной неопределенности системы (или пре- рывной случайной величины X) в теории информации применяется специальная характеристика, называемая энтропией. Понятие об энтропии является в теории информации основным. Энтропией системы называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взя- тая с обратным знаком: п. (18.2.2) /=1 Энтропия Н(Х), как мы увидим в дальнейшем, обладает рядом свойств, оправдывающих ее выбор в качестве характеристики степени неопределенности. Во-первых, она обращается в нуль, когда одно из состояний системы достоверно, а другие — невозможны. Во-вторых, при заданном числе состояний она обращается в максимум, когда эти состояния равновероятны, а при увеличении числа состояний — увеличивается. Наконец, и это самое главное, она обладает свойством аддитивности, т. е. когда несколько независимых систем объеди- няются в одну, их энтропии складываются. Логарифм в формуле (18.2.2) может быть взят при любом осно- вании а> 1. Перемена основания равносильна простому умножению энтропии на постоянное число, а выбор основания равносилен вы- бору определенной единицы измерения энтропии. Если за основа- ние выбрано число 10, то говорят о «десятичных единицах» энтро- пии, если 2 — о «двоичных единицах». На практике удобнее всего пользоваться логарифмами при основании 2 и измерять энтропию в двоичных единицах; это хорошо согласуется с применяемой в эле- ктронных цифровых вычислительных машинах двоичной системой счисления. В дальнейшем мы будем везде, если не оговорено противное, под символом log понимать двоичный логарифм. ') Знак минус перед суммой поставлен для того, чтобы энтропия была положительной (числа pi меньше единицы и их логарифмы отрицательны).
472 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 В приложении (табл. 6) даны двоичные логарифмы целых чисел от 1 до 1001). Легко убедиться, что при выборе 2 в качестве основания лога- рифмов за единицу измерения энтропии принимается энтропия про- стейшей системы X» которая имеет два равновозможных состояния: - Л/ Xi х2 Действительно, по формуле (18.2.2) имеем: H(X)s=-(llog4 + |log|)=l. Определенная таким образом единица энтропии называется «дво- ичной единицей» и иногда обозначается bit (от английского «binary digit» — двоичный знак). Это энтропия одного разряда двоичного числа, если он с одинаковой вероятностью может быть нулем или единицей. Измерим в двоичных единицах энтропию системы X, которая имеет п равновероятных состояний: Xi Xi х2 . . . хп Имеем: Н (X) = — п -±- log = — log 1 + log п или H(X) = \Qg п. (18.2.3) т. е. энтропия системы с равновозможными состояниями равна логарифму числа состояний. Например, для системы с восемью состояниями Н(Х) = log8 = 3. Докажем, что в случае, когда состояние системы в точности из- вестно заранее, ее энтропия равна нулю. Действительно, в этом слу- чае все вероятности pv р2, ...» рп в формуле (18.2.2) обращаются 9 Логарифмы дробей находятся вычитанием, например: logO,13 = log 13 —log 100. Для нахождения логарифмов чисел с тремя значащими цифрами можно поль- зоваться линейной интерполяцией.
18.21 ЭНТРОПИЯ 473 в нуль, кроме одной,— например которая равна единице. Член pklQgpk обращается в нуль, так как log 1=0. Остальные члены тоже обращаются в нуль, так как lim plogp = 0. р->0 Докажем, что энтропия системы с конечным множеством состоя- ний достигает максимума, когда все состояния равновероятны. Для этого рассмотрим энтропию системы (18.2.2) как функцию вероят- ностей р2.........рп и найдем условный экстремум этой функции при условии: п 2л = 1. (18.2.4) Пользуясь методом неопределенных множителей Лагранжа, будем искать экстремум функции: п п р = — Z log^( 4-Х 2 Pi- (18.2.5) /=1 /=1 Дифференцируя (18.2.5) по рх......рп и приравнивая производные нулю, получим систему уравнений: logPz4-loge4-X = 0 (/=1.....п) или logPz = —X — loge (I1............л), (18.2.6) откуда видно, что экстремум (в данном случае максимум) достигается при равных между собой значениях рР Из условия (18.2.4) видно, что при этом Pi = P2= ••• =РЛ = -^-’ (18.2.7) а максимальная энтропия системы равна: ^тах W = 10g Л, (18.2.8) т. е. максимальное значение энтропии системы с конечным числом состояний равно логарифму числа состояний и достигается, когда все состояния равновероятны. Вычисление энтропии по формуле (18.2.2) можно несколько упро- стить, если ввести в рассмотрение специальную функцию: Г/(Р) = —Plogp, (18.2.9) где логарифм берется по основанию 2. Формула (18.2.2) принимает вид: п //(X)=2’i(Pz)- (18.2.10) /=1
474 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИЙ ИНФОРМАЦИИ [ГЛ. 18 Функция 7)(р) затабулирована; в приложении (табл. 7) приведены ее значения для р от 0 до 1 через 0,01. Пример 1. Определить энтропию физической системы, состоящей из двух самолетов (истребителя и бомбардировщика), участвующих в воздушном бою. В результате боя система может оказаться в одном из четырех возможных состояний: 1) оба самолета не сбиты; 2) истребитель сбит, бомбардировщик не сбит; 3) истребитель не сбит, бомбардировщик сбит; 4) оба самолета сбиты. Вероятности этих состояний равны соответственно 0,2; 0,3; 0,4 и 0,1. Решение. Записываем условия в виде таблицы: *1 *3 *4 Pi 0,2 0,3 0,4 0,1 По формуле (18.2.10) имеем: Н (X) = Ч (0,2) + ч (0,3) + ч (0,4) + у (0,1). Пользуясь таблицей 7 приложения, находим Н (X) = 0,4644 + 0,5211 + 0,5288 + 0,3322 « 1,85 (дв. ед.). Пример 2. Определить энтропию системы, состояние которой описы- вается прерывной случайной величиной X с рядом распределения *l *2 *3 *4 *5 Pl 0,01 0,01 0,01 0,01 0,96 Решение. t Н (X) = 4т> (0,01) 4- ц (0,96) « 0,322 (дв. ед.). Пример 3. Определить максимально возможную энтропию системы, состоящей из трех элементов, каждый из которых может быть в четырех возможных состояниях. Решение. Общее число возможных состояний системы равно п=4« 4*4=64. Максимально возможная энтропия системы равна log 64 = 6 (дв. ед.). Пример 4. Определить максимально возможную энтропию сообщения, состоящего из пяти букв, причем общее число букв в алфавите равно 32. Решение. Число возможных состояний системы п = 325. Максимально возможная энтропия равна 5 log 32 = 25 (дв. ед). Формула (18.2.2) (или равносильная ей (18.2.10)) служит для непосредственного вычисления энтропии. Однако при выполнении преобразований часто более удобной оказывается другая форма записи энтропии, а именно, представление ее в виде математического ожи- дания: //(Х) = Л4[—logP(X)], (18.2.11)
18.3] ЭНТРОПИЯ СЛОЖНОЙ СИСТЕМЫ 475 где logP(X)— логарифм вероятности любого (случайного) состояния системы, рассматриваемый как случайная величина. Когда система X принимает состояния xv .... хп> случайная величина logP(Ar) принимает значения: . logpp logp2, ...» 10£рл. (18.2.12) Среднее значение (математическое ожидание) случайной величины — logP(A’) и есть, как нетрудно убедиться, энтропия системы X. Для ее получения значения (18.2.12) осредняются с «весами», равными соответствующим вероятностям pv р2........рп. Формулы, подобные (18.2.11), где энтропия представляется в виде математического ожидания, позволяют упрощать преобразования, свя- занные с энтропией, сводя их к применению известных теорем о математических ожиданиях. 18.3. Энтропия сложной системы. Теорема сложения энтропий На практике часто приходится определять энтропию для сложной системы, полученной объединением двух или более простых систем. Под объединением двух систем X и Y с возможными состояниями хР ..., хп\ ур ...» ут понимается сложная система (X, К), состоя- ния которой (хр у;) представляют собой все возможные комбинации состояний хр Уу систем X и Y. Очевидно, число возможных состояний системы (АХ Y) равно л X т. Обозначим Рц вероятность того, что система (X, Y) будет в состоянии (Хр уу): P„=*P((X~xi)(Y~yj)). (18.3.1) Вероятности Рц удобно расположить в виде таблицы (матрицы) х‘ *1 Хг . . . Хп Ри р» . . . . Рщ У2 Р» р%2 . . . РП2 • 1 • . . . • Ут Р1т Р2т . . , Рпт
476 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 Найдем энтропию сложной системы. По определению она равна сумме произведений вероятностей всех возможных ее состояний на их логарифмы с обратным знаком: Н(Х, Y)=^~ 2 S Рц^Рц (18.3.2) i=l/ = 1 или, в других обозначениях: п т Н(Х, К) —2 (18.3.2') Z=l/=1 Энтропию сложной системы, как и энтропию простой, тоже можно записать в форме математического ожидания: H(Xt Y) = M[— logP(X, У)], (18.3.3) где logР(АГ, У) — логарифм вероятности состояния системы, рас- сматриваемый как случайная величина (функция состояния). Предположим, что системы X и Y независимы, т. е. принимают свои состояния независимо одна от другой, и вычислим в этом пред- положении энтропию сложной системы. По теореме умножения вероятностей для независимых событий Р(ХК Y) = P(X)P(Y), откуда log Р (X, У) = log Р (X) + log Р (У). Подставляя в (18.3.3), получим Н(Х, y) = Af[-logP(X)-logP(y)], или Н(Х. У) = //(Х)-ЬН(У), (18.3.4) т. е. при объединении независимых систем их энтропии скла- дываются, Доказанное положение называется теоремой сложения энтропий. Теорема сложения энтропий может быть легко обобщена на про- извольное число независимых систем: H{XV Х2.......Х,)= 2 W (18.3.5) Л=1 Если объединяемые системы зависимы, простое сложение энтропий уже неприменимо. В этом случае энтропия сложной системы меньше, чем сумма энтропий ее составных частей. Чтобы найти энтропию системы, составленной из зависимых элементов, нужно ввести новое понятие условной энтропии.
18.41 УСЛОВНАЯ ЭНТРОПИЯ. ОБЪЕДИНЕНИЕ ЗАВИСИМЫХ СИСТЕМ 477 18.4. Условная энтропия. Объединение зависимых систем Пусть имеются две системы X и Y, в общем случае зависимые. Предположим, что система X приняла состояние xz. Обозначим P(yy|xf) условную вероятность того, что система Y примет состояние уу при условии, что система X находится в состоянии xz: Р(Уу|х/) = Р(К~Уу|Х~х/). (18.4.1) Определим теперь условную энтропию системы Y при условии, что система X находится в состоянии xt. Обозначим ее H(Y\xi). По общему определению, имеем: т H(Y\xt)=- ^P^XiilogPiyjlxi) (18.4.2) или • _ т H(Y\Xi)=^ T)(P(y7|xz)). (18.4.2') Формулу (18.4.2) можно также записать в форме математического ожидания: Н (Y\Xl) = МХД— logP(l'|x/)l. (18.4.3) где знаком МХ1 обозначено условное математическое ожидание вели- чины, стоящей в скобках, при условий АГ~хР Условная энтропия зависит от того, какое состояние xz приняла система X; для одних состояний она будет больше, для других — меньше. Определим среднюю, или полную, энтропию системы Y с учетом того, что система может принимать разные состояния. Для этого нужно каждую условную энтропию (18.4.2) умножить на вероятность соответствующего состояния pt и все такие произведе- ния сложить. Обозначим полную условную энтропию H(Y\X)\ H(Y\X^^PlH(Y\xi) (18.4.4) или, пользуясь формулой (18.4.2), п “ т Н (YIX) = — 2 Pi S Р (У) I Xi) log Р (yj |xz). Внося pt под знак второй суммы, получим: л т Я(Г|Л) = -2Е (18.4.5) /=17=1 или ЩП*)==Д Д Pi^P^Xi)). (18.4.5') Но по теореме умножения вероятностей Pi Р^уДх^ — Рц,
478 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 следовательно, Н(Y \Х) = - 2 2 Рц log р (yj\xt). isxl y=xl (18.4.6) Выражению (18.4.6) тоже можно придать форму математического ожидания: Н (У | X) = М [— log Р (Г | X)], (18.4.7) Величина H(Y\X) характеризует степень неопределенности си- стемы К, остающуюся после того, как состояние системы X пол- ностью определилось. Будем называть ее полной условной энтро- пией системы Y относительно X. Пример 1. Имеются две системы X и У, объединяемые в одну (X, К); вероятности состояний системы (X, Y) заданы таблицей Xt *2 rJ У1 | 0,1 0,2 0 1 0,3 Уг ° 0,3 ° 0,3 Уз ° 0,2 0,2 0,4 Pi 1 0,1 0,7 0,2 1 Определить полные условные энтропии H(Y\X) и Н(Х\ Y). Решение. Складывая вероятности P/у по столбцам, получим вероят- ности у?. = Р (X х.): p1S=0,l; р2 = 0,7; р3 = 0,2. Записываем их в нижней, добавочной строке таблицы. Аналогично, склады- вая P/у по строкам, найдем: G =0.3; г2 = 0,3; Г3 = О,4 (гу = Р(К~уу)) и запишем справа дополнительным столбцом. Деля P.j на р*, получим таб- лицу условных вероятностей Р (Уу | х.у. \ xi yi\ Xi x2 *3 У1 1 0,2 0,7 . 0 У2 0 0,3 0,7 0 Уз 0 0,2 0,7 1
18.4] УСЛОВНАЯ ЭНТРОПИЯ. ОБЪЕДИНЕНИЕ ЗАВИСИМЫХ СИСТЕМ 479 -По формуле (18.4.5') находим Н (Y | X). Так как условные энтропии при X и X х3 равны нулю, то И(Г|Х)-0,7[ч(^) + ч(^) + ,(“)]. Пользуясь таблицей 7 приложения, находим H(Y |Х) «1,09 (дв. ед.). Аналогично определим Н (X | Y), Из формулы (18.4.5'), меняя местами X и К, получим Я(Х|К)=2гл(Р(х1|у)). j = l Составим таблицу условных вероятностей P(xt |уд Деля на г., получим: у/ X Xi У1 0,1 0,3 0,2 0,3 0 У2 0 1 0 Уз 0 0,2 0,4 - 0,2 0,4 Отсюда Н(X| Г) = 0,3[i (-51) +1 (g)] + 0,4 [ч (g-) +1 (^|)] « 0,68 (дв. ед.). Пользуясь понятием условной энтропии, можно определить энтро- пию объединенной системы через энтропию ее составных частей. Докажем следующую теорему: Если две системы X и Y объединяются в одну, то энтро- пия объединенной системы равна энтропии одной из ее со* ставных частей плюс условная энтропия второй части отно* сительно первой'. H(Xt Y) = H(X) + H(Y\X). (18.4.8) Для доказательства запишем Н(Х> Y) в форме математического ожи- дания (18.3.3): Н(Х, Y) = M[— logP(X, К)]- По теореме умножения вероятностей Р(Х, Y) = P(X)P(Y\X)t
480 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 следовательно, log Р (X, Y) = log Р (X) + log Р (Г| X), откуда Н (X, Y) = М [- log Р (X)] + М [- log Р (У| *)] или, по формулам (18.2.11), (18.3.3) Я(Л7 У) = Н(Х)-\-Н(У\ X), что и требовалось доказать. В частном случае, когда системы X и У независимы, Я(Е| Л’) = — //(К), и мы получаем уже доказанную в предыдущем п° теорему сложения энтропий: Н(Х Г) = //(^) + /7(К). В общем случае Н (X, Y)^H(X) + H (F). (18.4.9) Соотношение (18.4.9) следует из того, что полная условная энтро- пия Н(У\Х) не может превосходить безусловной: H(Y\ Х)^Н(У). (18.4.10) Неравенство (18.4.10) будет доказано в п° 18.6. Интуитивно оно представляется довольно очевидным: ясно, что степень неопределен- ности системы не может увеличиться оттого, что состояние какой-то другой системы стало известным. Из соотношения (18.4.9) следует, что энтропия сложной системы достигает максимума в крайнем случае, когда ее составные части независимы. Рассмотрим другой крайний случай, когда состояние одной из систем (например X) полностью определяет собой состояние дру- гой (К). В этом случае Н(У\ А’) = 0, и формула (18.4.7) дает Н(Х. У) = Н(Х). Если состояние каждой из систем X, У однозначно определяет состояние другой (или, как говорят, системы X и Y эквивалентны), то Н(Х, У) = Н(Х)==Н(У). Теорему об энтропии сложной системы легко можно распростра- нить на любое число объединяемых систем: H(XVX2........Xs) = H(X})-{-H(X2\Xl)-j-H(X3\X1, *2)+ ... ... +H(XS\ Xv X2........XTS_A). (18.4.11) где энтропия каждой последующей системы вычисляется при условии, что состояние всех предыдущих известно.
18.5] ЭНТРОПИЯ И ИНФОРМАЦИЯ 481 18.5. Энтропия и информация В предыдущих п°п° была определена энтропия как мера неопре- деленности состояния некоторой физической системы. Очевидно, что в результате получения сведений неопределенность системы может быть уменьшена. Чем больше объем полученных сведений, чем они более содержательны, тем больше будет информация о системе, тем менее неопределенным будет ее состояние. Естественно поэтому коли- чество информации измерять уменьшением энтропии той си- стемы, для уточнения состояния которой предназначены сведения. Рассмотрим некоторую систему X, над которой производится наблюдение, и оценим информацию, получаемую в результате того, что состояние системы X становится полностью известным. До полу- чения сведений (априори) энтропия системы была Н(Х)\ после полу- чения сведений состояние системы полностью определилось, т. е. энтропия стала равной нулю. Обозначим 1Х информацию, получаемую в результате выяснения состояния системы X. Она равна уменьше- нию энтропии: 1х = Н(Х)-0 ИЛИ /х = Н(Х), (18.5.1) т. е. количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно энтропии этой системы. Представим формулу (18.5.1) в виде: п /х = -2 A’0g л. (18.5.2) где pt=P(X ~xt). Формула (18.5.2) означает, что информация 1Х есть осредненное по всем состояниям системы значение логарифма вероятности состоя- ния с обратным знаком. Действительно, для получения 1Х каждое значение log pt (лога- рифм вероятности Z-го состояния) со знаком минус множится на вероятность этого состояния и все такие произведения складываются. Естественно каждое отдельное слагаемое — log рассматривать как частную информацию, получаемую от отдельного сообщения, состоящего в том, что система X находится в состоянии Обо- значим эту информацию 1Х.: = —logpz. (18.5.3) Тогда информация 1Х представится как средняя (или полная) информация, получаемая от всех возможных отдельных сообщений 31-3015
482 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 с учетом их вероятностей. Формула (18.5.2) может быть переписана в форме математического ожидания: Zx = Af[—logP(*)], (18.5.4) где буквой X обозначено любое (случайное) состояние системы X. Так как все числа pi не больше единицы, то как частная инфор- мация так и полная 1Х не могут быть отрицательными. Если все возможные"' состояния системы априори одинаково ве- роятны ^р1==р2= ... = рп = ij, то, естественно, частная инфор- мация IXl от каждого отдельного сообщения ZX/ = —logp = logn равна средней (полной) информации / 1 1 1 1 fx = ~n-log- = logn. В случае, когда состояния системы обладают различными вероят- ностями, информации от разных сообщений неодинаковы: наибольшую информацию несут сообщения о тех событиях, которые априори были наименее вероятны. Например, сообщение о том, что 31 декабря в г. Москве выпал снег, несет гораздо меньше информации, чем аналогичное по содержанию сообщение, что 31 июля в г. Москве выпал снег. Пример 1. На шахматной доске в одной из клеток произвольным об- разом поставлена фигура. Априори все положения фигуры на доске одинаково вероятны. Определить информацию, получаемую от сообщения, в какой именно клетке находится фигура. Решение. Энтропия системы X с п равновероятными состояниями равна log л; в данном случае Н (X) = log 64 = 6 (дв. ед.), т. е. сообщение содержит 6 двоичных единиц информации. Так как все со- стояния системы равновероятны,' то ту же информацию несет и любое кон- кретное сообщение типа: фигура находится в квадрате е2. Пример 2. В условиях примера 1 определить частную информацию от сообщения, что фигура находится в одной из угловых клеток доски. Решение. Априорная вероятность состояния, о котором сообщается, равна __4__ А р~ 64 “ 16 ’ Частная информация равна / = _ log А == 4 (ДВ> ед Пример 3. Определить частную информацию, содержащуюся в сооб- щении впервые встреченного лица А: «сегодня мой день рождения».
18.5] ЭНТРОПИЯ И ИНФОРМАЦИЯ '483 Решение. Априори все дни в году с одинаковой вероятностью могут быть днями рождения лица А. Вероятность полученного сообщения Частная информация от данного сообщения / = — log « 8,51 (дв. ед.). ООО Пример 4. В условиях примера 3 определить полную информацию от сообщения, выясняющего, является ли сегодняшний день днем рождения впервые встреченного лица А. Решение. Система, состояние которой выясняется, имеет два возмож- ных состояния: х{—день рождения и х2— не день рождения. Вероятности этих состояний pi =з? -ggcp’ Р2 = з^у Полная информация равна: Пример 5. По цели может быть произведено п независимых выстре- лов; вероятность поражения цели при каждом выстреле равна р. После А-го выстрела (l.< k < п) производится разведка, сообщающая, поражена или не поражена цель; если она поражена, стрельба по ней прекращается. Опреде- лить k из того условия, чтобы количество информации, доставляемое развед- кой, было максимально !). Решение. Рассмотрим физическую систему Xk — цель после Л-го вы- стрела. Возможные состояния системы будут Xi — цель поражена; х2— цель не поражена. Вероятности состояний даны в таблице: *1 х2 Pl (!-/>)» Очевидно, информация, доставляемая выяснением состояния системы X^t будет максимальна, когда оба состояния х^ и х2 равновероятны: откуда А= log (1—р) ’ где log — знак двоичного логарифма. Например, при р = 0,2 получаем (округляя до ближайшего целого числа) ь__ 1 з 0,3219 0 Пример заимствован у И. Я. Динера.
484 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18* Бели информация выражена в двоичных единицах, то ей можно дать довольно наглядное истолкование, а именно: измеряя информа- цию в двоичных единицах, мы условно характеризуем ее числом, ответов «да» или «нет», с помощью которых можно приобрести ту же информацию. Действительно, рассмотрим систему с двумя со- стояниями: Xi xt х2 Pi. Pi Pi Чтобы выяснить состояние этой системы, достаточно задать один вопрос, например: находится ли система в состоянии Xj? Ответ «да» или «нет» на этот вопрос доставляет некоторую информацию, кото- рая достигает своего максимального значения 1, когда оба состояния априори равновероятны: р1=р2 = у. Таким образом, максимальная информация, даваемая ответом «да» или «нет», равна одной двоич- ной единице. Если информация от какого-то сообщения равна п двоичным еди- ницам, то она равносильна информации, даваемой п ответами «да» или «нет» на вопросы, поставленные так, что «да» и «нет» одина- ково вероятны. В некоторых простейших случаях для выяснения содержания сооб- щения действительно удается поставить несколько вопросов так, чтобы ответы «да» и «нет» на эти вопросы были равновероятны. В таких случаях полученная информация фактически измеряется числом таких вопросов. Если же поставить вопросы точно таким образом не удается, можно утверждать только, что минимальное число вопросов, необхо- димое для выяснения содержания данного сообщения, не меньше. чем информация, заключенная в сообщении. Чтобы число допросов было минимальным, нужно формулировать их так, чтобы вероятности отве- тов «да» и «нет» были как можно ближе к у. Пример 6. Некто задумал любое целое число X от единицы до восьми: а нам предлагается угадать его, поставив минимальное число вопросов, на каждый из которых дается ответ «да» или «нет». Решение. Определяем информацию, заключенную в сообщении, какое число задумано. Априори все значения X от 1 до 8 одинаково вероятны: Pt = р2 = ... = р8 = А , и формула (18.5.2) дает log8 = 3. Минимальное число вопросов, которые нужно поставить для выяснения задуманного числа, не меньше трех.
М.51 ЭНТРОПИЯ И ИНФОРМАЦИЯ 485 В данном случае можно, действительно, обойтись тремя вопросами, если сформулировать их так, чтобы вероятности ответов «да> и «нет* были равны. Пусть, например, задумано число «пять>, мы этого не знаем и задаем вопросы: Вопрос 1. Число X меньше пяти? Ответ. Нет. (Вывод: X—одно из чисел 5, 6, 7, 8.) Вопрос 2. Число X меньше семи? Ответ. Да. (Вывод: X — одно из чисел 5, 6.) Вопрос 3. Число X меньше шести? Ответ. Да. (Вывод: число X равно пяти.) Легко убедиться, что тремя такими (или аналогичными) вопросами можно установить любое задуманное число от 1 до 8 ’)• Таким образом, мы научились измерять информацию о системе X, содержащуюся как в отдельных сообщениях о ее состоянии, так и в самом факте выяснения состояния. При этом предполагалось, что наблюдение ведется непосредственно за самой системой X, На прак- тике это часто бывает не так: может оказаться, что система X непо- средственно недоступна для наблюдения, и выясняется состояние не самой системы X, а некоторой другой системы К, связанной с нею. Например, вместо непосредственного наблюдения за воздушными целями на посту управления средствами противовоздушной обороны ведется наблюдение за планшетом или экраном отображения воздуш- ной обстановки, на котором цели изображены условными значками. Вместо непосредственного наблюдения за космическим кораблем ведется наблюдение за системой сигналов, передаваемых его аппара- турой. Вместо текста X отправленной телеграммы получатель наблю- дает текст Y принятой, который не всегда совпадает с X. Различия между непосредственно интересующей нас системой X и поддающейся непосредственному наблюдению Y вообще могут быть двух типов: 1) Различия за счет того, что некоторые состояния системы X не находят отражения в системе Е, которая «беднее подробностями», чем система X. 2) Различия за счет ошибок: неточностей измерения параметров системы X и ошибок при передаче сообщений. Примером различий первого типа могут служить различия, воз- никающие при округлении численных данных и вообще при грубом описании свойств системы X отображающей ее системой Y. При- мерами различий второго типа могут быть искажения сигналов, возникающие за счет помех (шумов) в каналах связи, за счет ) Читателю рекомендуется самостоятельно поставить шесть вопросов, необходимых для выяснения положения фигуры на шахматной доске (см. при- мер 1), и определить число вопросов, достаточное для выяснения задуманной карты в колоде из 36 карт.
486 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ (ГЛ 18 неисправностей передающей аппаратуры, за счет рассеянности людей, участвующих в передаче информации, и т. д. В случае, когда интересующая нас система X и наблюдаемая Y различны, возникает вопрос: какое количество информации о си- стеме X дает наблюдение системы F? Естественно определить эту информацию как уменьшение энтро- пии системы X в результате получения сведений о состоянии системы К: /г->х = Н (X) - Н (X | К). (18.5.5) Действительно, до получения сведений о системе Y энтропия системы X была Н(Х)\ после получения сведений «остаточная» эн- тропия стала Н {X | F); уничтоженная сведениями энтропия и есть информация Величину (18.5.5) мы будем называть полной (или средней) информацией о системе X, содержащейся в системе Y. Докажем, что ^г-»х = Лс->г. т. е. из двух систем каждая содержит относительно другой одну и ту же полную информацию. Для доказательства запишем энтропию системы (X, Y) согласно теореме на стр. 479, двумя равносильными формулами: Н(Х, Y) = H(X) + H(Y\Х), Н(Х, Y) = H(Y) 4-//(Х|Г), откуда H(X) + H(Y\X) = H(Y) + H(X\Y). H(X) — H(X\Y) = H(Y) — H(Y\X), или /г->х = /х->г» (18.5.6) что и требовалось доказать. Введем обозначение: /г<-->х = /г->х = /х->г (18.5.7) и будем называть информацию 1у<. + х полной взаимной информа- цией, содержащейся в системах X и Y. Посмотрим, во что обращается полная взаимная информация в крайних случаях полной независимости и полной зависимости систем. Если X и Y независимы, то H(Y\X) — H(Y), и Zr<4kX=0, (18.5.8) т. е. полная взаимная информация, содержащаяся в независимых си- стемах, равна нулю. Это вполне естественно, так как нельзя полу- чить сведения о системе, наблюдая вместо нее другую, никак с нею не связанную.
18.5] ЭНТРОПИЯ И ИНФОРМАЦИЯ 487 Рассмотрим другой крайний случай, когда состояние системы X полностью определяет состояние системы Y и наоборот (системы эквивалентны). Тогда Н(Х) = H(Y): H(X\Y) = H(Y\X) = 0 и Iy^x = Ix = Iy = H(X) = H(Y), • (18.5.9) т. е. получается случай, уже рассмотренный нами выше (формула (18.5.2)), когда наблюдается непосредственно интересующая нас си- стема X (или, что то же, эквивалентная ей Y). Рассмотрим случай, когда между системами X и Y имеется жест- кая зависимость, но односторонняя: состояние одной из систем полностью определяет состояние другой, но не наоборот. Условимся называть ту систему, состояние которой полностью определяется состоянием другой, «подчиненной системой». По состоянию подчи- ненной системы вообще нельзя однозначно определить состояние другой. Например, если система X представляет собой полный текст сообщения, составленного из. ряда букв, a Y — его сокращенный текст, в котором для сокращения пропущены все гласные буквы, то, читая в сообщении Y слово «стл», нельзя в точности быть уве- ренным, означает оно «стол», «стул», «стал» или «устал». Очевидно, энтропия подчиненной системы меньше, чем энтропия той системы, которой она подчинена. Определим полную взаимную информацию, содержащуюся в си- стемах, из которых одна является подчиненной. Пусть из двух систем X и Y подчиненной является X. Тогда /У(^|Г) = О, и /у^х = Я(Х), (18.5.10) т. е. полная взаимная информация, содержащаяся в системах, из которых одна является подчиненной, равна энтропии под- чиненной системы. Выведем выражение для информации 1у^х не через условную энтропию, а непосредственно через энтропию объединенной системы Н(Х, Y) и энтропии ее составных частей Н(Х) и H(Y). Пользуясь теоремой об энтропии объединенной системы (стр. 479), получим: H(X\Y) = H(X, — (18.5.11) Подставляя это выражение в формулу (18.5.5), получим: Iy^x = H(X) + H(Y)— Н(Х, Г), (18.5.12) т. е. полная взаимная информация, содержащаяся в двух си- стемах, равна сумме энтропий составляющих систем минус энтропия объединенной системы. На основе полученных зависимостей легко вывести общее выра- жение для полной взаимной информации в виде математического
488 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ (ГЛ. 18 ожидания. Подставляя в (18.5.12) выражения для энтропий: Н (X) = М I- log Р (X)], Н (У) = М [— log Р,(У)]. Н(Х. У) = Л4 [—log Р (ЛГ, У)], получим /Y^x = Ml- log Р{X) — logР (У) + logРGY, У)] или Zr<^x=Af[log^y^b]. (18.5.13) Для непосредственного вычисления полной взаимной информации формулу (18.5.13) удобно записать в виде п т р V P^log-^.. (18.5.14) где P^P^X-x^Y-y^, Pi==P{X~xt)-, rf = P(Y~yj). Пример 1. Найти полную взаимную информацию, содержащуюся в си- стемах X и У в условиях примера 1 п° 18.4. Решение. Из примера 1 п° 18.4 с помощью таблицы 7 приложения получим: Н (X, У) » 2,25; Н (X) = 1,16; Н (У) » 1,57; /rwX = //ffl + // (У) - Н (X, У)« 0,48 (дв. ед.). Пример 2. Физическая система X может находиться в одном из четы- рех состояний Ху х2, х3, х4; соответствующие вероятности даны в таблице Х( X} х2 х3 Ха Pl 0,1 0,2 0,4 0.3 При наблюдении за системой X состояния х{ и х2 неразличимы; состояния х3 и х4 также неразличимы. Сообщение о системе X указывает, находится ли она в одном из состояний xlt х2 или же в одном из состояйий х3, х4. Полу- чено сообщение, указывающее, в каком из состояний:^, х2 или х3, х4 — на- ходится система л. Определить информацию, заключенную в этом сообщении. Решение. В данном примере мы наблюдаем не саму систему X, а подчиненную ей систему У, которая принимает состояние уь когда система X оказывается в одном из состояний Ху х2, и состояние у2, когда X оказы- вается в одном из состояний х3, х4. Имеем: . Г1 = /> (У ~ У1) = 0,1 + 0,2 = 0,3; r2 = Р (У ~ у2) = 0,3 4- 0,4 = 0,7. Находим взаимную информацию, т. е. энтропию подчиненной системы: = - 1о8 ri ~ r2 1°И r2 = (°»3) +1 (°*7) » °’88 (Дв- еД )-
18.6] ЧАСТНАЯ ИНФОРМАЦИЯ О СИСТЕМЕ 489 18.6. Частная информация о системе, содержащаяся в сообщении о. событии. Частная информация о событии, содержащаяся в сообщении о другом событии В предыдущем п° мы рассмотрели полную (или среднюю) инфор- мацию о системе X, содержащуюся в сообщении о том, в каком состоянии находится система Y. В ряде случаев представляет интерес оценить частную информацию о системе X, содержащуюся в от- дельном сообщении, указывающем, что система Y находится в кон- кретном состоянии уу. Обозначим эту частную информацию /Уу->х« Заметим, что полная (или, иначе, средняя) информация 1у-*х должна представлять собой математическое ожидание частной информации для всех возможных состояний, о которых может быть передано сообщение: = (18.6.1) Придадим формуле (18.5.14), по которой вычисляется 1у-+х (она же /г^л). такой вид, как у формулы (18.6.1): Л Л Ри Л Л rip{xi\yj) Iy^x = riP(<x№i)los - nr, = i = l M 1 ' Z = 1 7=1 1 ' (is.6.2) откуда, сравнивая с формулой (18.6.1), получим выражение частной информации: Р | Уj) h^x = S Р 1 У? 102----------• (18.6.3) 7 Pi Выражение (18.6.3) и примем за определение частной информации. Проанализируем структуру этого выражения. Оно представляет собой не что иное, как осредненное по всем состояниям xt значение величины log-----------------------------у-?-. (18.6.4) Осреднение происходит с учетом различных вероятностей значений xv х2, ...» хп. Так как система Y уже приняла состояние уу, то при осреднении значения (18.6.4) множатся не на вероятности pt состояний а на условные вероятности P(xjyy). < Таким образом, выражение для частной информации можно запи- сать в виде условного математического ожидания: = Му} I log (18.6.5) PW Г,
490 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ (ГЛ. 18 Докажем, что частная информация 1у.+х* так же как не может быть отрицательна. Действительно, обозначим: Pi ~Чи и рассмотрим выражение , Р (Xi I yj) log-—-------= log?,7. Легко убедиться (см. рис. 18.6.1), что при любом х>0 In х х — 1. Полагая в (18.6.7) х = —Ь, получим: . In?,7 . 1 I 10^^==-ЫТ>ЙТ2 ( На основании (18.6.3) и (18.6.6) имеем: п lyj+x = 2 Р <Х11 У? lo£ Я И > 1=1 полная, (18.6.6) (18.6.7) откуда (18.6.8) п > 1Й2 “ / = 1 1 1п2 Но п п / = 1 Z=1 1 и п п i=1 1=1 и выражение в фигурной скобке равно нулю; следовательно /уу->х^>0. Таким образом, мы доказали, что частная информация о си- стеме X. заключенная в сообщении о любом состоянии yj си- стемы К, не может быть отрицательной. Отсюда следует, что неотрицательна и полная взаимная информация 1у<~>х (как матема- тическое ожидание неотрицательной случайной величины): /Кч_>х>0. (18.6.9) Из формулы (18.5.5) для информации: 1у++х = Н(X) — H(X\Y) следует, что Н(Х) — H(X\Y)^Q (18.6.10) или ЩХ|Г)<ЩЛ),
18.6] ЧАСТНАЯ ИНФОРМАЦИЯ О СИСТЕМЕ 491 т. е. полная условная энтропия системы, не превосходит ее безусловной энтропии1). Таким образом, доказано положение, принятое нами на веру в п°18.3. Для непосредственного вычисления частной информации фор- мулу (18.6.3) удобно несколько преобразовать, введя в нее вместо условных вероятностей P{xt\yj) безусловные. Действительно, и формула (18.6.3) принимает вид Pi i Pi 1 Пример 1. Система (X, У) характеризуется таблицей вероятностей Рц: X xi II Л2 1 у/ xi У1 II 0,1 0,2 1 0,3 Уг || 0,3 0,4 !10,7 Pi 0,4 0,6 1 Найти частную информацию о системе X, заключенную в сообщении Y у{. 1) Заметим, что это справедливо только в отношении полной условной энтропии; что касается частной условной энтропии Н (X | у у), то она для от- дельных уj может быть как больше, так и меньше Н (X).
492 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 Решение. По формуле (18.6.11) имеем: , 0,1 f 0,1 . 0,2 . 0,2 'у 1 ~ oj g одгоз + оз,og оз”Ь,з • По таблице 6 приложения находим log одОЛо з = log 10 - log 12 я — 0,263, 02 log = log 20— log 18 «0,152, ly^+x « — О»333 • 0,2634-0,667 • 0,152«0,013 (дв. ед.). Мы определили частную информацию о системе X, содержащуюся в конкретном событии К~Уу, т. е. в сообщении «система Y нахо- дится в состоянию уу». Возникает естественный вопрос: а нельзя ли пойти еще дальше и определить частную информацию о событии X ~ Агр содержащуюся в событии Y ~ у,? Оказывается, это можно сделать, только получаемая таким образом информация «от события к событию» будет обладать несколько неожиданными свойствами: она может быть как положительной, так и отрицательной. Исходя из структуры формулы (18.6.3), естественно определить информацию «от события к событию» следующим образом: ч /^Xi==l0g-LL21L, (18.6.12) т. е. частная информация о событии, получаемая в резуль- тате сообщения о другом событии, равна логарифму отно- шения вероятности первого события после сообщения к его же вероятности до сообщения (априори). Из формулы (18.6.12) видно, что если вероятность события X — в результате сообщения Y ~ уу увеличивается» т. е. то информация />у>^ положительна; в противном случае она отри- цательна. В частности, когда появление события Y у j полностью исключает возможность появления события X ~ (т. е. когда эти события несовместны), то 00 * Информацию /уу-кг, можно записать в виде: P(xi\yd Рц ' V.,-1ОВ-4^=log (IS.6.I3) из чего следует, что она симметрична относительно xt и Уу, и 1у)+х1~^1+У)~1у{++хГ (18.6.14)
18.7) ЭНТРОПИЯ ДЛЯ СИСТЕМ С НЕПРЕРЫВН. МНОЖЕСТВОМ СОСТОЯН. 493 Таким образом, нами введены три вида информации: 1) полная информация о системе X, содержащаяся в системе К; 2) частная информация о системе X, содержащаяся в событии (сообщении) У— у/. 3) частная информация о событии X— содержащаяся в со- бытии (сообщении) Y — у/. Первые два типа информации неотрицательны; последняя может быть как положительной, так и отрицательной. Пример 2. В урне 3 белых и 4 черных шара. Из урны вынуто 4 шара, три из них оказались черными, а один — белым. Определить информацию заключенную в наблюденном событии В по отношению к событию А — сле- дующий вынутый из урны шар будет черным. Решение. 1в+А » '0g РрА^А)} = 1°8 $ « - 0.779 (ДВ. ед.). 18.7. Энтропия и информация для систем с непрерывным множеством состояний До сих пор мы рассматривали физические системы, различные состояния которых хР х2, .... хд можно было все перечислить; вероятности этих состояний были какие-то отличные от нуля вели-, чины pv р2, Рп- Такие системы аналогичны прерывным (диск- ретным) случайным величинам, принимающим значения хр х2, ..., хл с вероятностями рр р2, ..., рп. На практике часто встречаются физические системы другого типа, аналогичные непрерывным случай- ным величинам. Состояния таких систем нельзя перенумеровать: они непрерывно переходят одно в другое, причем каждое отдельное со- стояние имеет вероятность, равную нулю, а распределение вероят- ностей характеризуется некоторой плотностью. Такие системы, по аналогии с непрерывными случайными величинами, мы будем на- зывать «непрерывными», в отличие от ранее рассмотренных, кото- рые мы будем называть «дискретными». Наиболее простой пример непрерывной системы — это система, состояние которой описывается одной непрерывной случайной величиной X с плотностью распре- деления /(х). В 'более сложных случаях состояние системы описы- вается несколькими случайными величинами Xv Х2......Xs с плот- ностью распределения /(хр х2........................xs). Тогда ее можно рассматри- вать как объединение (Xv Х2, ..., Xs) простых систем Xv Х2, .... Xs. Рассмотрим простую систему Л, определяемую одной непрерыв- ной случайной величиной X с плотностью распределения / (х)
494 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ (ГЛ. 18 fM Дх Рис. 18.7.2. (рис. 18.7.1). Попытаемся распространить на эту систему введенное в п° 18.1 понятие энтропии. Прежде всего отметим, что понятие «непрерывной системы», как и понятие «непрерывной случайной величины», является некоторой идеализацией. Например, когда мы считаем величину X — рост наугад взятого че- ловека — непрерывной слу- чайной величиной, мы отвле- каемся от того, что факти- чески никто не измеряет рост точнее, чем до 1 см, и что различить между собой два значения роста, разня- щиеся, скажем, на 1 мм, практически невозможно. Тем не менее данную слу- чайную величину естественно описывать как непрерывную, хотя можно было бы описать ее и как дискретную, считая совпадающими те зна- чения роста, которые различаются менее чем на 1 см. Точно таким образом, установив предел точности, измерений, т. е. некоторый отрезок Дх, в пределах которого состояния системы X практически неразличимы, можно приближенно свести непрерывную систему X к дискретной. Это равносильно замене плавной кривой f(x) ступенчатой, типа гисто- граммы (рис. 18.7.2); при этом каждый участок (раз- ряд) длины Дх заменяется одной точкой-представите- лем. Площади прямоуголь- ников изображают вероят- ности попадания в соответ- ствующие разряды: /(х/)Дх. Если условиться считать неразли- чимыми состояния системы, относящиеся к одному разряду, и объе- динить их все в одно состояние, то можно приближенно определить энтропию системы X, рассматриваемой с точностью до Дх: яаДЛ) = — 5 / (*i) A* log {/(х,) Дх} = i = -- 2 f (*/) A* {log f (xt)-4- log Дх} = = — 2 {/ (xi) log / (*/)} Ax — log Дх / (х^ Дх. (18.7.1)
18:7] ЭНТРОПИЯ ДЛЯ СИСТЕМ С НЕПРЕРЫВН. МНОЖЕСТВОМ сосгоян. 495 При достаточно малом Дх ОО У I/ (xi) 1о£ / Дх ~ J / (*) !°g / (•*) I -00 оо ^/(xz)Ax« J/(x)dx = l, ' _ I -оо и формула (18.7.1) принимает вид: оо Я4х(Л’) = — J/(x)log/(x)rfx — log-Дх. (18.7.2) — ОО Заметим, что в выражении (18.7.2) первый член получился совсем не зависящим от Дх — степени точности определения состояний си- стемы. Зависит от Дх только второй член (—logAx), который стре- мится к бесконечности при Дх—>0. Это и естественно, так как чем точнее мы хотим задать состояние системы X, тем ббльшую степень неопределенности мы должны устранить, и при неограниченном умень- шении Дх эта неопределенность растет тоже неограниченно. Итак, задаваясь произвольно малым «участком нечувствительно- сти» Дх< наших измерительных приборов, с помощью которых опре- деляется состояние физической системы X, можно найти энтропию Н±х(Х) по формуле (18.7.2), в которой второй член неограниченно растёт с уменьшением Дх. Сама энтропия Н^х (X) отличается от этого неограниченно растущего члена на независимую от Дх величину °° Я‘(Х) = —J7(x)log/(x)dx. . (18.7.3) — ОО Эту величину можно назвать «приведенной энтропией» непрерывной системы X. Энтропия Н±х(Х) выражается через приведенную энтро- пию Н*(Х) формулой НДх(X) = /7*{X) — logДх. . (18.7.4) Соотношение (18.7.4) можно истолковать следующим образом: от точности измерения Дх зависит только начало отсчета, при котором вычисляется энтропия. В дальнейшем для упрощения записи мы будем опускать ин- декс Дх в обозначении энтропии и писать просто Н(Х)\ наличие Дх в правой части всегда укажет, о какой точности идет речь. Формуле (18.7.2) для энтропии можно придать более компактный вид, если, как мы это делали для прерывных величин, записать ее в виде математического ожидания функции. Прежде всего перепишем
496 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ (ГЛ. 18 (18.7.2) в виде Н(Х)=~ f f(x)}&g(f(x)bx}dx. (18.7.5) — ОО Это есть не что иное, как математическое ожидание функции — log {у (-ЛГ) Дх} от случайной величины X с плотностью /(х): ?/(^) = М[—log{/(A’)Ax}]. (18.7.6) Аналогичную форму можно придать величине /Г (JV): /Г (X) = М [— log / (*)]. (18.7.7) Перейдем к определению условной энтропии. Пусть имеются две непрерывные системы: X и Y. В общем случае эти системы зави- симы. Обозначим /(х, у) плотность распределения для состояний объединенной системы (X, F); /\(х) — плотность распределения си- стемы Х\ /2(у)—плотность распределения системы К; /(у|х), /(х|у)— условные плотности распределения. Прежде всего определим частную условную энтропию H(Y\x)t т. е. энтропию системы Y при условии, что система X при- няла определенное состояние х. Формула для нее будет аналогична (18.4.2), только вместо условных вероятностей Pty^x^ будут стоять условные законы распределения /(у|х) и появится слагаемое Jog Ду: Н(У\х) — ~ J/(y|x)log/(y|x)dy — logAy. (18.7.8) — ОО Перейдем теперь к полной (средней) условной энтропии H(Y\X)-t для этого нужно осреднить частную условную энтропию H(Y\x) по всем состояниям х с учетом их вероятностей, характеризуемых плотностью /j (х): Н (У IX) = — уУ fx (х) / (у I х) log / (у I х) dx dy — log Ду (18.7.9) — ОО или, учитывая, что f(x, у) = /1(х)/(у|х), H(Y\X) — — J f/(x. y)log/(y|x)dxdy — log Ду. (18.7.10) — СО Иначе эта формула может быть записана в виде Л(К|Х) = Л4[— log/(F|X)| — log Ду (18.7.11) или Н (Y\Х) = М (- log {/(F|X) Ду) J. (18.7.12)
18.7] ЭНТРОПИЯ ДЛЯ СИСТЕМ С НЕПРЕРЫВН. МНОЖЕСТВОМ состоян. 497 Определив таким образом условную энтропию, покажем, как она применяется при определении энтропии объединенной системы. Найдем сначала энтропию объединенной системы непосредственно. Если «участками нечувствительности» для систем X и Y будут Дх и Ду, то для объединенной системы (X, Y) роль их будет играть эле- ментарный прямоугольник Дх Ду. Энтропия системы (X, Y) будет H(Xt Y) = M[— log{/(X, Г)ДхДу}]. (18.7.13) Так как /(х. у) = /1 (х) f (у I х), то и /(X Г) = /1(Х)/(Г|Х). (18.7.14) Подставим (18.7.14) в (18.7.13): Н (X, Y) = M\— log Л (X) — log/ (Г IX) — log Дх — log Ду] = = Al [- log (Л (X) Дх)] + Л1 [- log (/ (Г IX) Ду)], или, по формулам (18.7.6) и (18.7.12), Н(Х, Y) — Н(Х)-\-И (Y \ X), (18.7.15) т. е. теорема об энтропии сложной системы остается в силе и для непрерывных систем. Если X и Y независимы, то энтропия объединенной системы равна сумме энтропий составных частей: Я(Х, Y) = H(X) + H(Y). (18.7.16) Пример 1. Найти энтропию непрерывной системы Л, все состояния которой на каком-то участке (а, р) одинаково вероятны: /(Х) = 1 р_а при а < х < 0, 0 при х < а или х > ₽. Решение. н Н'(Х)----f log^J—rfx«10g(₽-a); а или Н (X) = log (Р — а) — log Дх ^(•V) = log-L^-. (18.7.17) Пример 2. Найти энтропию системы X, состояния которой распреде- лены по нормальному закону: /w_ ' У 2л а
498 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 Решение, [f —Г -log —L-Г2’’ = I У 2л а > _ = Al [log (V 2л а) 4- log е j = log (К 2Й ®) + log «• Но М [№] = D [X] = а», Н* (X) = log (К 2л а) + log е = log 2ад а) И Я(Х) = log (/2^ а) — log Дх = log “ ] • (18.7.18) Пример 3. Состояние самолета характеризуется тремя случайными величинами: высотой //, модулем скорости V и углом 0, определяющим направление полета. Высота самолета распределена с равномерной плотностью на участке (Лр й2); скорость V — по нормальному закону с м.о. и с.к.о. aD; угол 0 — с равномерной плотностью на участке (0, л). Величины И, V, 6 не- зависимы. Найти энтропию объединенной системы. Решение. Из примера 1 (формула (18.7.17)) имеем Я(Я)=1о8-Й2~л—-> где ДЛ— «участок нечувствительности» при определении высоты. Так как энтропия случайной величины не зависит от ее математического ожидания, то для определения энтропии величины V воспользуемся формулой Энтропия величины 0: Я (6) = log (к - 0) - log ДО = log . Окончательно имеем: Н{Н. V, И) _ log 11=^ + log + log JL или Я(Я, V. 0) = log {. (18.7.19) Заметим, что каждый из сомножителей под знаком фигурной скобки имеет один и тот же смысл: он показывает, сколько «участков нечувствительности» укладывается в некотором характерном для данной случайной величины от- резке. В случае распределения с равномерной плотностью этот участок пред- ставляет собой просто участок возможных значений случайной величины; в случае нормального распределения этот участок равен К2^0 «, где в — сред- нее квадратическое отклонение.
18.7] ЭНТРОПИЯ ДЛЯ СИСТЕМ С НЕПРЕРЫВН. МНОЖЕСТВОМ состоян. 499 Таким образом, мы распространили понятие энтропии на случай непрерывных систем. Аналогично может быть распространено и поня- тие информации. При этом неопределенность, связанная с наличием в выражении энтропии неограниченно возрастающего слагаемого, отпа- дает: при вычислении информации, как разности двух энтропий, эти члены взаимно уничтожаются. Поэтому все виды информации, связан- ные с непрерывными величинами, оказываются не зависящими от У у «участка нечувствительности» Дх. ---I / • ---«---j—*------* Выражение для полной взаим- Л ной информации, содержащейся рис. 18.7.3. в двух непрерывных системах X и К, будет аналогично выражению (18.5.4), но с заменой вероятностей законами распределения, а сумм — интегралами: °° = И <18-720> — СО или, применяя знак математического ожидания, = ] (18.7.21) Полная взаимная информация /у^х, как и в случае дискретных си- стем, есть неотрицательная величина, обращающаяся в нуль только тогда, когда, системы X и Y независимы. Пример 4. На отрезке (0, 1) выбираются случайным образом, независимо друг от друга, две точки U и V\ каждая из них рас- пределена на этом отрезке с равно- мерной плотностью. В результате опыта одна из точек легла правее, другая — левее. Сколько информа- ции о положении правой, точки дает значение положения левой? Решение. Рассмотрим две случайные точки U и И на оси абсцисс Ох (рис. 18.7.3). Обозна- л чим Y абсциссу той из них, ко- торая оказалась слева, а X — абс- циссу той, которая оказалась справа (на рис. 18.7.3 слева оказа- лась точка Ut но могло быть и наоборот). Величины X и Г определяются через U и V следующим образом: Y « min {U, У}; X = max {U, V}. Найдем закон распределения системы (X, Y). Так как Y < X, то он будет существовать только в области £>, заштрихованной на рис. 18.7.4. Обозначим
500 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 f (х, у) плотность распределения системы (X, Y) и найдем элемент вероятности /(х, y)dxdy, т. е. вероятность того, что случайная точка (X, Г) попадет в элементарный прямоугольник (х, x-\-dx\ у, у + ^у). Это событие может произойти двумя способами: либо слева окажется точка U, а справа V, либо наоборот. Следовательно, / (х, у) dx dy = <р (х, у) dx dy + ? (у, х) dx dy, где ? (a, v) обозначена плотность распределения системы величин (С/, V). • В данном случае . , /0 < и < 1\ следовательно, ¥ (*. У) = ? (У > = 1; f (х, у) dx dy = 2 dx dy и /(x y) = (2 "p« <*’У)с£>> 10 при (x, У)фй. Найдем теперь законы распределения отдельных величин, входящих в систему: ОО X fi (х)= J* f (х, y)dy = J* 2dy — 2х при 0 < х < 1; —оо 0 аналогично оо 1 /Иу)= //(* y)rfx = J2dx = 2(i—У) при 0 <У < 1- -00 у Графики плотностей f{ (х) и /2 (у) изображены на рис. 18.7.5. Рис. 18.7.5. Подставляя f (х, у), (х) и /2(у) в формулу (18.7.20), получим 1п 27(Г=уУ 2dxdy = (О) 1 I —In2+/ f 2(—lax)dxdy + J' J*2[—In(l-y)] dxrfyl. I (D) (O) '.
18.7] ЭНТРОПИЯ ДЛЯ СИСТЕМ С НЕПРЕРЫВН. МНОЖЕСТВОМ состоян. 501 * В силу симметрии задачи последние два интеграла равны, и /y^x = -l-^ff\nxdxdy = (D) 1 х 1 4 Г Г 2 Г = — 1 ______ I \nxdxl dy = —1-—-г—/ 2xln*fiU = 1П Z (/ </ in z 1/ 0 0 о = 1_1 «0,44 (дв. ед.). Пример 5. Имеется случайная величина X, распределенная по нор- мальному закону с параметрами тх = 0, <зх. Величина X измеряется с ошиб- кой Z, тоже распределенной по нормальному закону с параметрами тг = 0, Ошибка Z не зависит от X. В нашем распоряжении — результат измерения, т. е. случайная величина Y=*X+Z. Определить, сколько информации о величине ^содержит величина Y. Решение. Воспользуемся для вычисления информации формулой (18.7.21), т. е. найдем ее как математическое ожидание случайной величины 08.7^2) Для этого сначала преобразуем выражение log. °® Л ЮЛ (у) log /И/(у|х)._ /(у|х) Л ЮЛ (у) g Л (у) * В нашем случае Л(У) = (У--*)2 1 ~ 2о2 / (У IX) = е г (см. главу 9). V 2яаг Выражение (18.7.22) равно: У4+<4 1 Г(Г-х)2 г2 1 rz2 - г2 1 l0g сг +ln2L2o| 2(о2 + а2)]’ Отсюда аг 1 Г М [Z2] Тп2 L 2о2 М\У2\ . (18.7.23)
502 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ (ГЛ. 18 Но тг = ту = 0, следовательно, М [Z2] = D [Z] = а2, 1 М [Г21 =О[Г] = »’+<£ J Подставляя (18.7.24) в (18.7.23), получим /7+7 zr<->№->og ——— (дв. ед.) >). Например, при ах = аг 1Y <~>х = tog / 2 = -1 (дв. ед.). 5 Если - <гх = 4; <sz = 3, то /г< х х ~ 1о£ *3 ~ 0>?4 (дв- ед)- (18.7.24) 18.8. Задачи кодирования сообщений. Код Шеннона —Фэно При передаче сообщений по линиям связи всегда приходится пользоваться тем или иным кодом, т. е. представлением сообщения в виде ряда сигналов. Общеизвестным примером кода может слу- жить принятая в телеграфии для передачи словесных сообщений азбука Морзе. С помощью этой азбуки любое сообщение представляется в виде комбинации элементарных сигналов: точка, тире, пауза (про- бел между буквами), длинная пауза (пробел между словами). Вообще кодированием называется отображение состояния одной физической системы с помощью состояния некоторой другой. Напри- мер, при телефонном разговоре звуковые сигналы кодируются в виде электромагнитных колебаний, а затем снова декодируются, превра- щаясь в звуковые сигналы на другом конце линии. Наиболее простым случаем кодирования является случай, когда обе системы X и Y (отображаемая и отображающая) имеют конечное число возможных состояний. Так обстоит дело при передаче записанных буквами сооб- щений, например, при телеграфировании. Мы ограничимся рассмотре- нием этого простейшего случая кодирования. Пусть имеется некоторая система X (например, буква русского алфавита), которая может случайным образом принять одно из состоя- ний хР х2.......хп. Мы хотим отобразить ее (закодировать) с по- мощью другой системы К, возможные состояния которой ур у2.......Ут- Если т < п (число состояний системы У меньше числа состояний системы А'), то нельзя каждое состояние системы X закодировать с по- мощью одного-единственного состояния системы У. В таких случаях одно состояние системы X приходится отображать с помощью опре- деленной комбинации (последовательности) состояний системы К. Так, в азбуке Морзе буквы отображаются различными комбинациями эле- !) Применяя формулу (18.7.20), можно было бы прийти к тому же ре- зультату, но более громоздким способом.
13.8] ЗАДАЧИ КОДИРОВАНИЯ СООБЩЕНИИ. КОД ШЕННОНА — ФЭНО 503 ментарных символов (точка, тире). Выбор таких комбинаций и уста- новление соответствия между передаваемым сообщением и этими ком- бинациями и называется «кодированием» в узком смысле слова. Коды различаются по числу элементарных символов (сигналов), из которых формируются комбинации, иными словами — по числу воз- можных состояний системы Y. В азбуке Морзе таких элементарных символов четыре (точка, тире, короткая пауза, длинная пауза). Пере- дача сигналов может осуществляться в различной форме: световые вспышки, посылки электрического тока различной длительности, зву- ковые сигналы и т. п. Код с двумя элементарными символами (0 и 1) называется двоичным. Двоичные коды широко применяются на прак- тике, особенно при вводе информации в электронные цифровые вы- числительные машины, работающие по двоичцой системе счисления. Одно и то же сообщение можно закодировать различными спосо- бами. Возникает вопрос об оптимальных (наивыгоднейших) способах кодирования. Естественно считать наивыгоднейшим такой код, при котором на передачу сообщений затрачивается минимальнее время. Если на передачу каждого элементарного символа (например 0 или 1) тратится одно и то же время, то оптимальным будет такой код, при котором на передачу сообщения заданной длины будет затрачено минимальное количество элементарных символов. Предположим, что перед нами поставлена задача: закодировать двоичным кодом буквы русской азбуки так, чтобы каждой букве соответствовала определенная комбинация элементарных символов 0 и 1 и чтобы среднее число этих символов на букву текста было мини- мальным. Рассмотрим 32 буквы русской азбуки: а, б, в, г,„ д, е, ж, з, и, й, к, л, м, н, о, п, р, с, т, у, ф, х, ц, ч, ш, щ, ъ, ы, ь, э, ю, я плюс промежуток между словами, который мы будем обозначать «—»’. Если, как принято в телеграфии, не различать букв ъ и ь (это не приводит к разночтениям), то получится 32 буквы: а, б, в, г, д, е, ж, з, и, й, к, л, м, н, о, п, р, с, т, у, ф, х, ц, ч, ш, щ, (ъ, ь), ы, э, ю, я, «—». Первое, что приходит в голову — это, не меняя порядка букв, занумеровать их подряд, приписав им номера от 0 до 31, и затем перевести нумерацию в двоичную систему счисления. Двоичная си- стема— это такая, в которой единицы разных разрядов представляют собой разные степени двух. Например, десятичное число 12 изобра- зится в виде 12 = 1 • 23+ 1 . 22 + 0-21 + 0-20 и в двоичной системе запишется как 1100. Десятичное число 25— 25= 1 -24-4-1 • 23+0 • 224-0 • 21 + 1 -2° — запишется в двоичной системе как 11001.
504 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 Каждое из чисел 0, 1, 2, ..., 31 может быть изображено пяти- значным двоичным числом. Тогда получим следующий код: а — 00000 б — 00001 в —00010 г —00011 я —11110 «—» —11111 В этом коде на изображение каждой буквы тратится ровно 5 элементарных символов. Возникает вопрос, является ли этот простей- ший код оптимальным и нельзя ли составить другой код, в котором на одну букву будет в среднем приходиться меньше элементарных символов? Действительно, в нашем коде на изображение каждой буквы — часто встречающихся «а», «е», «о» или редко встречающихся «щ», «э», «ф»—тратится одно и то же число элементарных символов. Очевидно, разумнее было бы, чтобы часто встречающиеся буквы были закодированы меньшим числом символов, а реже встречающиеся — большим. Чтобы составить такой код, очевидно, нужно знать частоты букв в русском тексте. Эти частоты приведены в таблице 18.8.1. Буквы в таблице расположены в порядке убывания частот. Таблица 18.8.1 Буква Частота Буква Частота Буква Частота. Буква Частота <—> 0,145 р 0,041 я 0,019 X 0,009 О 0,095 В 0,039 ы 0,016 Ж 0,008 е 0,074 Л 0,036 3 0,015 ю 0,007 а 0,064 к 0,029 ъ, ь 0,015 ш 0,006 и 0,064 м 0,026 б 0,015 ц 0,004 т 0,056 д 0,026 г 0,014 щ 0,003 н 0,056 п 0,024 ч 0,013 э 0,003 с 0,047 У 0,021 й 0,010 ф 0,002 Пользуясь такой таблицей, можно составить наиболее экономич- ный код на основе соображений, связанных с количеством информа- ции. Очевидно, код будет самым экономичным, когда каждый эле- ментарный символ будет передавать максимальную информацию. Рассмотрим элементарный символ (т. е. изображающий его сигнал) как физическую систему с двумя возможными состояниями: 0 и 1.
18.81 ЗАДАЧИ КОДИРОВАНИЯ СООБЩЕНИЙ. КОД ШЕННОНА - ФЭНО 505 Информация, которую дает этот символ, равна энтропии системы и максимальна в случае, когда оба состояния равновербятцы; в этом случае элементарный символ передает информацию 1 (дв. ед.). Поэтому основой оптимального кодирования будет требование, чтобы элементарные символы в закодированном тексте встречались в сред- нем одинаково часто. Таблица 18.8.2 ставленному условию; этот способ известен под названием «кода Шеннона — Фэно». Идея его состоите том, что кодируемые символы (буквы или комбинации букв) разделяются на две приблизительно равновероятные группы: для первой группы символов на первом месте комбинации ставится 0 (первый знак двоичного числа, изображающего символ); для второй группы — 1. Далее каждая группа снова делится на две приблизительно равновероятные подгруппы; для символов пер- вой подгруппы на втором месте ставится нуль; для второй подгруппы — единица и т. д. Продемонстрируем принцип построения кода Шеннона — Фэно на материале русского алфавита (табл. 18.8.1). Отсчитаем первые шесть
506 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 букв (от «—» до «т»); суммируя их вероятности (частоты), получим 0,498; на все остальные буквы (от «н» до «ф») придется приблизи- тельно такая же вероятность 0,502. Первые шесть букв (от «—» до «т») будут иметь на первом месте двоичный знак 0. Остальные буквы (от «н» до «ф») будут иметь на первом месте единицу. Далее снова разделим первую группу на две приблизительно равновероятные под- группы: от «—» до «о» и от «е» до «т»; для всех букв первой подгруппы нд втором месте поставим нуль, а второй подгруппы — единицу. Процесс будем продолжать до тех пор, пока в каждом подразделении не останется ровно одна буква, которая и будет за- кодирована определенным двоичным числом. Механизм построения кода показан на таблице 18.8.2, а сам код приведен в таблице 18.8.3. Таблица 18.8.3 Буква Двоичное число Буква Двоичное число Буква Двоичное число «—» 000 к 10111 ч 111100 о 001 м 11000 й иною е 0100 д 110010 X 1111011 а 0101 п 110011 ж 1111100 и оно у 110100 ю , 1111101 т 0111 я 110110 ш 11111100 н 1000 ы 110111 Ц 11111101 с 1001 3 111000 Щ 11111110 Р 10100 ъ, ь 111001 э 111111110 в 10101 б 111010 Ф 111111111 л 10110 г 111011 С помощью таблицы 18.8.3 можно закодировать и декодировать любое сообщение. В виде примера запишем двоичным кодом фразу: «теория ин- формации» 01110100001101000110110110000 0110100011111111100110100 1100001011111110101100110 Заметим, что здесь нет необходимости отделять друг от друга буквы специальным знаком, так как и без этого декодирование вы- полняется однозначно. В этом можно убедиться, декодируя с по- мощью таблицы 18.8.2 следующую фразу: 10011100110011001001111010000 1 1011100111001001101010000110101 010110000110110110 («способ кодирования»).
18.81 ЗАДАЧИ КОДИРОВАНИЯ СООБЩЕНИЙ. КОД ШЕННОНА — ФЭНО 507 Однако необходимо отметить, что любая ошибка при кодирова- нии (случайное перепутывание знаков 0 и 1) при таком коде губи- тельна, так как декодирование всего следующего за ошибкой текста становится невозможным. Поэтому данный принцип кодирования может быть рекомендован только в случае, когда ошибки при кодировании и передаче сообщения практически исключены. Возникает естественный вопрос: а является ли составленный нами код при отсутствии ошибок действительно оптимальным? Для того чтобы ответить на этот вопрос, найдем среднюю информацию, при- ходящуюся на один элементарный символ (0 или 1), и сравним ее с максимально возможной информацией, которая равна одной двоич- ной единице. Для этого найдем сначала среднюю информацию, содер- жащуюся в одной букве передаваемого текста, т. е. энтропию на одну букву: 32 32 w(6)=— Spziogpz== /=1 /=1 где Pi — вероятность того, что буква примет определенное состояние («—», о, е, а, .... ф). Из табл. 18.8.1 имеем И (б) = 71 (0,145) 4-т) (0,095)+ ... + tj (0,003)+ tj (0,002) «4,42 (дв. единиц на букву текста). По таблице 18.8.2 определяем среднее число элементарных сим- волов на букву пСр = 3 • 0,145 + 3 • 0,095 + 4 • 0,074+ ... ... +9 • 0,003 + 9 • 0,002 =4,45. Деля энтропию Я (б) на пср, получаем информацию на один эле- ментарный символ 4 42 Лс = ^45 ~ °.Э94 (дв. ед.). > Таким образом, информация на один символ весьма близка к сво- ему верхнему пределу 1, а выбранный нами код весьма близок к оптимальному. Оставаясь в пределах задачи кодирования по буквам, мы ничего лучшего получить не сможем. Заметим, что в случае кодирования просто двоичных номеров букв мы имели бы изображение каждой буквы пятью двоичными зна- ками и информация на один символ была бы 4 49 Лс = ^ = О.884 (ДВ. ед.), т. е. заметно меньше, чем при оптимальном буквенном кодировании. Однако надо заметить, что кодирование «по буквам» вообще не является экономичным. Дело в том, что между соседними буквами
508 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ (ГЛ. 18. любого осмысленного текста всегда имеется зависимость. Напри- мер, после гласной буквы в русском языке не может стоять «ъ» или «ь»; после шипящих не могут стоять «я» или «ю»; после не- скольких согласных подряд увеличивается вероятность гласной и т. д. Мы знаем, что при объединении зависимых систем суммарная энтропия меньше суммы энтропий отдельных систем; следовательно, информация, передаваемая отрезком связного текста, всегда меньше, чем информация на один символ, умноженная на число символов. С учетом этого обстоятельства более экономный код можно построить, если кодировать не каждую букву в отдельности, а целые «блоки» из букв. Например, в русском тексте имеет смысл кодировать цели- ком некоторые часто встречающиеся комбинации букв, как «тся», «ает», «ние» и т. п. Кодируемые блоки располагаются в порядке убывания частот, как буквы в табл. 18.8.1, а двоичное кодирование осуществляется по тому же принципу. В ряде случаев оказывается разумным кодировать даже не блоки из букв, а целые осмысленные куски текста. Например, для разгрузки телеграфа в предпраздничные дни целесообразно кодировать условными номерами целые стандартные тексты, вроде: «поздравляю новым годом желаю здоровья успехов работе». Не останавливаясь специально на методах кодирования блоками, ограничимся тем, что сформулируем относящуюся сюда теорему Шеннона. Пусть имеется источник информации X и приемник У, связанные каналом связи К (рис. 18.8.1). Известна производительность источника информации Нх(Х\ т. е. среднее количество двоичных единиц информации, поступающее от источника в единицу времени (численно оно равно средней энтропии сообщения, производимого источником в единицу вре- мени). Пусть, кроме того, известна про- Рис. 18.8.1. пускная способность канала Ср т. е. максимальное количество информации (на- пример, двоичных знаков 0 или 1), которое способен передать канал в ту же единицу времени. Возникает вопрос: какова должна быть пропускная способность канала, чтобы он «справлялся» со своей за- дачей, т. е. чтобы информация от источника X к приемнику Y по- ступала без задержки? Ответ на этот вопрос дает первая теорема Шеннона. Сформули- руем ее здесь без доказательства. 1-я теорема Шеннона Если пропускная способность канала связи Сх больше энтро- пии источника информации в единицу времени К С^Н^Х),
18.9] ПЕРЕДАЧА ИНФОРМАЦИИ С ИСКАЖЕНИЯМИ 509 то всегда можно закодировать достаточно длинное сообще- ние так, чтобы оно передавалось каналом связи без задержки. Если же, напротив, то передача информации без задержек невозможна. 18.9. Передача информации с искажениями. Пропускная способность канала с помехами В предыдущем п° мы рассмотрели вопросы, связанные с кодиро- ванием и передачей информации по каналу связи в идеальном случае, когда процесс передачи информации осуществляется без ошибок. В действительности этот процесс неизбежно сопровождается ошиб- ками (искажениями). Канал передачи, в котором возможны искаже- ния, называется каналом с помехами (или шумами). В частном случае ошибки возникают в процессе самого кодирования, и тогда кодирующее устройство может рассматриваться как канал с помехами. Совершенно очевидно, что наличие помех приводит к потере информации. Чтобы в условиях наличия помех получить на прием- нике требуемый объем информации, необходимо принимать специаль- ные меры. Одной из таких мер является введение так называемой «избыточности» в передаваемые сообщения; при этом источник ин- формации выдает заведомо больше символов, чем это было бы нужно при отсутствии помех. Одна из форм введения избыточности — про- стое повторение сообщения. Таким приемом пользуются, например, при плохой слышимости по телефону, повторяя каждое сообщение дважды. Другой общеизвестный способ повышения надежности пере- дачи состоит в передаче слова «по буквам» — когда вместо каждой буквы передается хорошо знакомое слово (имя), начинающееся с этой буквы. Заметим, что все живые языки естественно обладают некоторой избыточностью. Эта избыточность часто помогает восстановить пра- вильный текст «по смыслу» сообщения. Вот почему встречающиеся- вообще нередко искажения отдельных букв телеграмм довольно редко приводят к действительной потере информации: обычно удается исправить искаженное слово, пользуясь одними только свойствами языка. Этого не было бы при отсутствии избыточности. Мерой избы- точности языка служит величина log л где Н1С — средняя фактическая энтропия, приходящаяся на один пе- редаваемый символ (букву), рассчитанная для достаточно длинных отрывков текста, с учетом зависимости между символами, п — число (18.9.1)
Помехи 510 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 применяемых символов (букв), logn— максимально возможная в дан- ных условиях энтропия на один передаваемый символ, которая была бы, если бы все символы были равновероятны и независимы. Расчеты, проведенные на материале наиболее распространенных европейских языков, показывают, что их избыточность достигает 50% и более (т. е., грубо говоря, 50% передаваемых символов являются лишними и могли бы не передаваться, если бы не опасность иска- жений). Однако для безошибочной передачи сведений естественная избы- точность языка может оказаться как чрезмерной, так и недостаточ- ной: все зависит от того, как велика опа- сность искажений («уровень помех») в ка- нале связи. С помощью методов теории информа- ции можно для каждого уровня помех Рис. 18.9.1. найти нужную степень избыточности источ- ника информации. Те же методы помо- гают разрабатывать специальные помехоустойчивые коды (в частности, так называемые «самокорректирующиеся» коды). Для решения этих задач нужно уметь учитывать потерю информации в канале, связан- ную с наличием помех. Рассмотрим сложную систему, состоящую из источника информа- ции X, канала связи К и приемника Y (рис. 18.9.1). Источник ин- формации представляет собой физическую систему X, которая имеет п возможных состояний х2, ...» хп с вероятностями р2, ...» рп. - Будем рассматривать эти состояния как элементарные символы, кото- рые может передавать источник X через канал К к приемнику К. Количество информации на один символ, которое дает источник, бу- дет равно энтропии на один символ: п ( н = — Pt log pt. «=1 Если бы передача сообщений не сопровождалась ошибками, то коли- чество информации, содержащееся в системе Y относительно X, было бы равно самой энтропии системы X. При наличии ошибок оно бу- дет меньше: /у<^х = Я(*)-Я(*|Г). Естественно рассматривать условную энтропию H(X\Y) как потерю информации на один элементарный символ, связанную с наличием помех.
18.9] ПЕРЕДАЧА ИНФОРМАЦИИ С ИСКАЖЕНИЯМИ 511 Умея определять потерю информации в канале, приходящуюся на один элементарный символ, переданный источником информации, можно определить пропускную способность канала с поме- хами, т. е. максимальное количество информации, которое способен передать канал в единицу времени. Предположим, что канал может передавать в единицу времени k элементарных символов. В отсутствие помех пропускная способ- ность канала была бы равна C = Alogn, (18.9.2) так как максимальное количество информации, которое может содер- жать один символ, равно log я, а максимальное количество инфор- мации, которое могут содержать k символов, равно /г log п, и оно достигается, когда символы появляются независимо друг от друга. Теперь рассмотрим канал с помехами. Его пропускная способ- ность определится как C = femax/<rUx. (18.9.3) где тах/у^х — максимальная информация на один символ, которую может передать канал при наличии помех. Определение этой максимальной информации в общем случае — дело довольно сложное, так как она зависит от того, как и с какими вероятностями искажаются символы; происходит ли их перепутывание, или же простое выпадение некоторых символов; происходят ли искажения символов независимо друг от друга и т. д. Однако для простейших случаев пропускную способность канала удается сравнительно легко рассчитать. Рассмотрим, например, такую задачу. Канал связи К передает от источника информации X к приемнику Y элементарные символы 0 и 1 в количестве k символов в единицу времени. В процессе передачи каждый символ, независимо от других, с вероятностью р может быть искажен (т. е. заменен противоположным). Требуется найти про- пускную способность канала. Определим сначала максимальную информацию на один, символ, которую может передавать канал. Пусть источник производит сим- волы 0 и 1 с вероятностями р и 1 — Тогда энтропия источника будет Н (X) = — р log р — (1 — р) log (1 — />). Определим информацию /rUx на один элементарный символ: Чтобы найти полную условную энтропию H(Y\X)t найдем сна- чала частные условные энтропии: //(Klxj) (энтропию системы Y при условии, что система X приняла состояние хг) и H(Y\x )
512 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 (энтропию системы Y при условии, что система X приняла состоя- ние х2). Вычислим H(Y\х}); для этого предположим, что передан элементарный символ 0. Найдем условные вероятности того, что при этом система Y находится в состоянии ^ = 0 и в состоянии у2=1. Первая из них равна вероятности того, что сигнал не перепутан: Р(У1|Х1)=1 —р; вторая — вероятности того, что сигнал перепутан: ^(у21 *1) = н- Условная энтропия H(Y\x1) будет: 2 н (YIх0 = — 5 Р (У, I *1) log р (у, | X]) = i = l = —(1 —p)log(l — р) —plogp. Найдем теперь условную энтропию системы Y при условии, что X—х2 (передан сигнал единица): ^(У1|х2)=н; р(У2\х2) — 1 — р, откуда Н (Y | х2) = — р log р — (1 — р) log (1 — р). Таким образом, //(У|х1) = Н(У|х2) = —p.log|x —(1 — |x)log(l — ,1). (18.9.4) Полная условная энтропия H(Y\X) получится, если осреднить услов- ные энтропии H(Y\xi) и /7(У|х2) с учетом вероятностей р и 1—р значений х2. Так как частные условные энтропии равны, то И (Y\X) = — p\ogp — (l-pi)log(l— |i). Мы получили следующий вывод: условная энтропия //(К|А) совсем не зависит от того, с какими вероятностями р, 1 — р встречаются символы 0; 1 в передаваемом сообщении, а зави^ сит только от вероятности ошибки ji. Вычислим полную информацию, передаваемую одним символом: iV+x = H(Y)-H(Y\X) = = {— rlogr — (1 -r)log(l-r)) — — {—plogp — (l—p)log(l—p)| — = h(O-i-’i(l —О) —h + (i —н)1>
18.9] ПЕРЕДАЧА ИНФОРМАЦИИ С ИСКАЖЕНИЯМИ 513 где г — вероятность того, что на выходе появится символ 0. Оче- видно, при заданных свойствах канала информация на один символ достигает максимума, когда + —г) максимально. Мы знаем, что такая функция достигает максимума при г =1/2, т. е. когда на приемнике оба сигнала равновероятны. Легко убедиться, что это достигается, когда источник передает оба символа с одинаковой вероятностью р = 1/2. При том же значении р=1/2 достигает максимума и информация на один символ. Максимальное значение равно 1у\х=н (Г) - h (to 4- 'п (1 - H)1 =1 - h (и)4-’I (1 - н)1- Следовательно, в нашем случае max /VUX = 1 — h fa) 4- Ч (1 — ЮЬ и пропускная способность канала связи будет равна C = k {1 - h(|x)-M(l -рь)]}. (18.9.5) Заметим, что + —Р1) есть че чт0 иное, как энтропия системы, имеющей два возможных состояния с вероятностями р. и 1—р.. Она характеризует потерю информации на один символ, связанную с наличием помех в канале. Пример. 1. Определить пропускную способность канала связи, способ- ного передавать 100 символов 0 или 1 в единицу времени, причем каждый из символов искажается (заменяется противоположным) с вероятностью р. = 0,01. Решение, По таблице 7 приложения находим 71 (И) = 0,0664, ^(1 — ц) = 0,0144, Ч (И) + ’1(1 — И) = 0,0808. На один символ теряется информация 0,0808 (дв. ед). Пропускная способ- ность'канала равна С = 100 (1 — 0,0808) = 91,92 » 92 двоичные" единицы в единицу времени. С помощью аналогичных расчетов может быть определена про- пускная способность канала и в более сложных случаях: когда число элементарных символов более двух и когда искажения отдельных символов зависимы. Зная пропускную способность канала, можно определить верхний предел скорости передачи информации по каналу с помехами. Сформулируем (без доказательства) относящуюся к этому случаю вторую теорему Шеннона. 2-я теорема Шеннона Пусть имеется источник информации X, энтропия кото- рого в единицу времени равна Н(Х)9 и канал с пропускной способностью С. Тогда если Н(Х)>С, 33-3015
514 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. ia то при любом кодировании передача сообщений без задержек и искажений невозможна, Если же Н(Х)<С, то всегда можно достаточно длинное сообщение закодировать так, чтобы оно было передано без задержек и искажений с вероятностью, сколь угодно близкой к единице, Пример 2. Имеются источник информации с энтропией в единицу времени Н (X) = 100 (дв. ед.) и два канала связи; каждый из них может передавать в единицу времени 70 двоичных знаков (0 или 1); каждый двоич- ный знак заменяется противоположным с вероятностью р. = 0,1. Требуется выяснить: достаточна ли пропускная способность этих каналов для передачи информации, поставляемой источником? Решение. Определяем потерю информации на один символ: Ч (Р) +1 (1 — Р) « 0,332 + 0,137 « 0,469 (дв. ед.). Максимальное количество информации, передаваемое по одному каналу в единицу времени: С = 70 (1—0,469) = 37,2. Максимальное количество информации, которое может быть передано по двум каналам в единицу времени: 37,2 • 2 = 74,4 (дв. ед.). чего недостаточно для обеспечения передачи информации от источника.
ГЛАВА 19 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ 19.1. Предмет теории массового обслуживания За последние десятилетия в самых разных областях практики возникла необходимость в решении своеобразных вероятностных задач, связанных с работой так называемых систем массового обслуживания. Примерами таких систем могут служить: телефон- ные станции, ремонтные мастерские, билетные кассы, справочные бюро, парикмахерские и т. п. Каждая такая сисхема состоит из какого-то числа обслуживающих единиц, которые мы будем назы- вать «каналами» обслуживания. В качестве каналов могут фигури- ровать: линии связи; лица, выполняющие те ли иные операции; раз- личные приборы и т. п. Системы массового обслуживания могут быть как одно-,так и многоканальными. Работа любой системы массового обслуживания состоит в выпол- нении поступающего на нее потока требований или заявок. Заявки поступают одна за другой в некоторые, вообще говоря, случайные, моменты времени. Обслуживание поступившей заявки продолжается какое-то время, после чего канал освобождается и снова готов для приема следующей заявки. Каждая система массового обслуживания, в зависимости от числа каналов и их производительности, обладает какой-то пропускной способностью, позволяющей ей более или менее успешно справляться с потоком заявок. Предмет теории массового обслуживания — установление зависимости между характером потока заявок, производительностью отдельного канала, числом каналов и успешностью (эффективностью) обслуживания. В качестве^ характе- ристик эффективности обслуживания — в зависимости от условий задачи и целей исследования — могут применяться различные вели- чины и функции, например: средний процент заявок, получающих отказ и покидающих систему необслуженными; среднее время «простоя» отдельных каналов и системы в целом; среднее время ожидания в очереди; вероятность того, что поступившая заявка немедленно будет принята к обслуживанию; закон распределения длины очереди и т. д. Каждая из этих характеристик описывает, с той или другой стороны, степень приспособленности системы к выполнению потока заявок, иными словами — ее пропускную способность.
516 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 Под «пропускной способностью» в узком смысле слова обычно понимают среднее число заявок, которое система может обслужить в единицу времени. Наряду с нею часто рассматривают относительную пропускную способность — среднее отношение числа обслуженных заявок к числу поданных. Пропускная способность (как абсолютная, так и относительная) в общем случае зависит не только от пара- метров системы, но и от характера потока заявок. Если бы заявки поступали регулярно, через точно определенные промежутки времени, и обслуживание каждой заявки тоже имело строго определенную длительность, расчет пропускной способности системы не предста- влял бы никакой трудности. На практике обычно моменты поступления заявок случайны; по большей части случайна и длительность обслу- живания заявки. В связи с этим процесс работы системы протекает нерегулярно: в потоке заявок образуются местные сгущения и разре- жения. Сгущения могут привести либо к отказам в обслуживании, либо к образованию очередей. Разрежения могут привести к непроиз- водительным простоям отдельных каналов или системы в целом. На эти случайности, связанные с неоднородностью потока заявок, накладываются еще случайности, связанные с задержками обслужи- ванья отдельных заявок. Таким образом, процесс функционирования системы массового обслуживания представляет собой случайный процесс. Чтобы дать рекомендации по рациональной организации системы, выяснить ее пропускную способность и предъявить к ней требования, необходимо изучить случайный процесс, протекающий в системе, и описать его математически. Этим и занимается теория массового обслуживания. Заметим, что за последние годы область применения математи- ческих методов теории массового обслуживания непрерывно расши- ряется и все больше выходит за пределы задач, связанных с «обслу- живающими организациями» в буквальном смысле слова. Многие задачи автоматизации производства оказываются близкими к теории массового обслуживания: потоки деталей, поступающих для выполнения над ними различных операций, могут рассматриваться как «потоки заявок», ритмичность поступления которых нарушается за счет слу- чайных причин. Своеобразные задачи теории массового обслуживания возникают в связи с проблемой организации транспорта и системы сообщений. Близкими к теории массового обслуживания оказываются и Задачи, относящиеся к надежности технических устройств: такие их характеристики, как среднее время безотказной работы, потребное количество запасных деталей, среднее время простоя в связи с ре- монтом и т. д., определяются методами, непосредственно заимство- ванными из теории массового обслуживания. Проблемы, родственные задачам массового обслуживания, постоянно возникают в военном деле. Каналы наведения, линии связи, аэродромы, устройства для сбора и обработки информации представляют собой
19.2] СЛУЧАЙНЫЙ ПРОЦЕСС СО СЧЕТНЫМ МНОЖЕСТВОМ СОСТОЯНИЙ 517 своеобразные системы массового обслуживания со своим режимом работы и пропускной способностью. Трудно даже перечислить все области практики» в которых нахо- дят применение методы теории массового обслуживания. За последние годы она стала одной из самых быстро развивающихся ветвей теории вероятностей. В настоящей главе будут изложены некоторые элементарные све- дения по теории массового обслуживания, знание которых необходимо любому инженеру, занимающемуся вопросами организации в области промышленности, народного хозяйства, связи, а также в военном деле. 19.2. Случайный процесс со счетным множеством состояний Случайный процесс, протекающий в системе массового обслужива- ния, состоит в том, что система в случайные моменты времени пере- ходит из одного состояния в другое: меняется число занятых каналов, число заявок, стоящих в очереди, и т. п. Такой процесс существенно отличается от случайных процессов, которые мы рассматривали в гла- вах 15—17. Дело в том, что система массового обслуживания пред- ставляет собой физическую систему дискретного типа с конеч- ным (или счетным) множеством состояний!), а переход системы из одного состояния в другое происходит скачком, в момент, когда осу- ществляется какое-то событие (приход новой заявки, освобождение канала, уход заявки из очереди и т. п.). Рассмотрим физическую систему X со счетным множеством со- стояний V V V *1» *2........ В любой момент времени t система X может быть в одном из этих состояний. Обозначим pk(t) (k = 1, 2, ..., п, ...) вероятность того, что в момент t система будет находиться в состоянии xk. Очевидно, для любого/ 2р»«)=1. (19.2.1) k Совокупность вероятностей pk(t) для каждого момента времени t ха- рактеризует данное сечение случайного процесса, протекающего в .си- стеме. Эта совокупность не является исчерпывающей характеристикой процесса (она, например, совсем не отражает зависимости между се- чениями), но все же достаточно хорошо описывает процесс и для ряда практических применений оказывается достаточной. Случайные процессы со счетным множеством состояний бывают двух типов: с дискретным или непрерывным временем. Первые отлича- ются тем, что переходы из состояния в состояние могут происходить *) В математике «счетным» называется конечное или бесконечное множе- ство, члены которого можно перенумеровать, т. е. записать в виде после- довательности аь а2..ап,...
518 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ 19 только в строго определенные, разделенные конечными интервала- ми моменты времени tv t2> ... Случайные процессы с непрерывным временем отличаются тем, что переход системы из состояния в со- стояние возможен в любой момент времени /. В качестве примера дискретной системы X, в которой протекает случайный процесс с непрерывным временем, рассмотрим группу из п самолетов, совершающих налет на территорию противника, обороняе- мую истребительной авиацией. Ни момент обнаружения группы, ни моменты подъема по ней истребителей заранее не известны. Различ- ные состояния системы соответствуют различному числу пораженных самолетов в составе группы: х0 — не поражено ни одного самолета, —поражен ровно один самолет, xk — поражено ровно k самолетов, хп — поражены все п самолетов. Схема возможных состояний системы и возможных переходов из состояния в состояние показана на рис. 19.2.1. Стрелками показаны возможные переходы системы из состояния в состояние. Закругленная стрелка, направленная из состояния xk в него же, означает, что система может не только перейти в соседнее Рис. 19.2,1. состояние xk+v но и остаться в прежнем. Для данной системы характерны необратимые переходы (пораженные самолеты не восстанавливаются); в связи с этим из состояния хп никакие пере- ходы в другие состояния уже невозможны. Отметим, что на схеме возможных переходов (рис. 19.2.1) пока- заны только переходы из состояния в соседнее состояние и не пока- заны «перескоки» через состояние: эти перескоки отброшены как практически невозможные. Действительно, для того чтобы система «перескочила» через состояние, нужно, чтобы строго одновременно были поражены два или более самолета, а вероятность такого собы- тия равна нулю. Случайные процессы, протекающие в системах массового обслужи- вания, как правило, представляют собой процессы с непрерывным временем. Это связано со случайностью потока заявок. В противопо- ложность системе с необратимыми переходами, рассмотренной в пре- дыдущем примере, для системы массового обслуживания характерны
19.2] СЛУЧАЙНЫЙ ПРОЦЕСС СО СЧЕТНЫМ МНОЖЕСТВОМ СОСТОЯНИЙ 619 обратимые переходы: занятый канал может освободиться, оче- редь может «рассосаться*. В качестве примера рассмотрим одноканальную систему массового обслуживания (например, одну телефонную линию), в которой заявка, заставшая канал занятым, не становится в очередь, а покидает си- стему (получает «отказ»). Это — дискретная система с непрерывным временем и двумя возможными состояниями: xQ — канал свободен, хг — канал .занят. Переходы из состояния в состояние обратимы. Схема возможных переходов показана на рис. 19.2.2. Рис. 19.2.2. Рис. 19.2.3. Для n-канальной системы такого же типа схема возможных пере- ходов показана на рис. 19.2.3. Состояние х0— все каналы свободны; х}—занят ровно один канал, х2— занято ровно два канала и т. д. Рассмотрим еще один пример дискретной системы с непрерывным временем: одноканальную систему массового обслуживания, которая может находиться в четырех состояниях: х0 — канал исправен и свободен, хх — канал исправен и занят, х2 — канал неисправен и ждет ремонта, . х3— канал неисправен и ремонтируется. Схема возможных переходов для этого случая показана на рис. 19.2.4 Переход системы из х3 непосредственно в минуя лг0, можно счи- тать практически невозможным, так как для этого нужно, чтобы окончание ремонта и приход оче-* рёдной заявки произошли строго в один и тот же момент времени. Для того чтобы описать случайный процесс, протекающий в дискретной системе с непрерывным временем, прежде всего нужно проанализировать причины, вызывающие переход системы из состоя- ния в состояние. Для системы массового обслужи- вания основным фактором, обусловливающим протекающие в ней про- цессы, является поток заявок. Поэтому математическое описание любой системы массового обслуживания начинается с описания потока заявок. 1) Схема составлена в предположении, что неработающий канал выйти из строя не может.
520 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 19.3. Поток событий. Простейший поток и его свойства Под потоком событий в теории вероятностей понимается после- довательность событий, происходящих одно за другим в какие-то мо- менты времени. Примерами могут служить: поток вызовов на телефон- ной станции; поток включений приборов в бытовой электросети; поток заказных писем, поступающих в почтовое отделение; поток сбоев (неисправностей) электронной вычислительной машины; поток выстре- лов, направляемых на цель во время обстрела, и т. п. События, обра- зующие поток, в общем случае могут быть различными, но здесь мы будем рассматривать лишь поток однородных событий, различаю- щихся только моментами появления. Такой поток можно изобразить как последовательность точек tv t2...... tk> ... на числовой оси (рис. 19.3.1), соответствующих моментам появления событий. ______£______ | fZ т I О Рис. 19.3.1. Поток событий называется регулярным, если события следуют одно за другим через строго определенные промежутки времени. Та- кой поток сравнительно редко встречается в реальных* системах, но представляет интерес как предельный случай. Типичным для системы массового обслуживания является случайный поток заявок. В настоящем п° мы рассмотрим потоки событий, обладающие некоторыми особенно простыми свойствами. Для этого введем ряд определений. 1. Поток событий называется стационарным, если вероятность попадания того или иного числа событий на участок времени длиной т (рис. 19.3.1) зависит только от длины участка и не зависит от того, где именно на оси Of расположен этот участок. 2. Поток событий называется потоком без последействия, если для любых неперекрывающихся участков времени число событий, по- ладающих на один из них, не зависит от числа событий, попадающих на другие. 3. Поток событий называется ординарным, если вероятность по- падания на элементарный участок Д/ двух или более событий прене- брежимо мала по сравнению с вероятностью попадания одного события. Если поток событий обладает всеми тремя свойствами (т. е. ста- ционарен, ординарен и не имеет последействия), то он называется простейшим (или стационарным пуассоновским) потоком. Название «пуассоновский» связано с тем, что при соблюдении условий 1-*-3 число событий, попадающих на любой фиксированный интервал вре- мени, будет распределено по закону Пуассона (см. п° 5.9).
19.3] ПОТОК СОБЫТИИ. ПРОСТЕЙШИЙ поток И ЕГО СВОЙСТВА 521 Рассмотрим подробнее условия 1-4-3, посмотрим, чему они соот- ветствуют -для потока заявок и за счет чего они могут нару- шаться. 1. Условию стационарности удовлетворяет поток заявок, вероят- ностные характеристики которого не зависят от времени. В частности, для стационарного потока характерна постоянная плотность (среднее число заявок в единицу времени). На практике часто встре- чаются потоки заявок, которые (по крайней мере, на ограниченном отрезке времени) могут рассматриваться как стационарные. Например, поток вызовов на городской телефонной станции на участке времени от 12 до 13 часов может считаться стационарным. Тот же поток в те- чение целых суток уже не может считаться стационарным (ночью плотность вызовов значительно меньше, чем днем). Заметим, что так обстоит дело и со всеми физическими процессами, которые мы назы- ваем «стационарными»: в действительности все они стационарны лишь на ограниченном участке времени, а распространение этого участка до бесконечности — лишь удобный прием, применяемый в целях упро- щения анализа. Во многих задачах теории массового обслуживания представляет интерес проанализировать работу системы при постоян- ных условиях; тогда задача решается для стационарного потока заявок. 2. Условие отсутствия последействия — наиболее существенное для простейшего потока — означает, что заявки поступают в систему не- зависимо друг от друга. Например, поток пассажиров, входящих на станцию метро, можно считать потоком без последействия потому, что причины, обусловившие приход отдельного пассажира именно в тот, а не другой момент, как правило, не связаны с аналогичными причинами для других пассажиров. Однако условие отсутствия после- действия может быть легко нарушено за счет появления такой зави- симости. Например, поток пассажиров, покидающих станцию метро, уже не может считаться потоком без последействия, так как моменты выхода пассажиров, прибывших одним и тем же поездом, зависимы между собой. Вообще нужно заметить, что выходной поток (или поток обслу- женных заявок), покидающий систему массового обслуживания, обычно имеет последействие, даже если входной поток его не имеет. Чтобы убедиться в этом, рассмотрим одноканальную систему массового обслу- живания, для которой время обслуживания одной заявки вполне опре- делено и равно /об. Тогда в потоке обслуженных заявок минимальный интервал времени между заявками, покидающими систему, будет ра- вен /об. Нетрудно убедиться, что наличие такого минимального интер- вала неизбежно приводит к последействию. Действительно, пусть стало известно, что в какой-то момент tx систему покинула обслуженная заявка. Тогда можно утверждать с достоверностью, что на любом участке времени т, лежащем в пределах ^4-/Об)» обслуженной
522 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 заявки не появится; значит, будет иметь место зависимость между чи- слами событий на неперекрывающихся участках. Последействие, присущее выходному потоку, необходимо учитывать, если этот поток является входным для какой-либо другой системы массового обслуживания (так называемое «многофазовое обслуживание», когда одна и та же заявка последовательно переходит из системы в систему). Отметим, между прочем, что самый простой на первый взгляд ре- гулярный поток, в котором события отделены друг от друга равными интервалами, отнюдь не является «простейшим» в нашем смысле слова, так как в нем имеется ярко выраженное последействие: моменты появ- ления следующих друг за'другом событий связаны жесткой, функцио- нальной зависимостью. Именно из-за наличия последействия анализ процессов, протекающих в системе массового обслуживания при регу- лярном потоке заявок, гораздо сложнее, чем при простейшем. 3. Условие ординарности означает, что заявки приходят пооди- ночке, а не парами, тройками и т. д. Например, поток атак, которому подвергается воздушная цель в зоне действия истребительной авиа- ции, будет ординарным, если истребители атакуют цель поодиночке, и не будет ординарным, если истребители идут в атаку парами. Поток клиентов, входящих в парикмахерскую, может считаться практически ординарным, чего нельзя сказать о потоке клиентов, направляющихся в ЗАГС для регистрации брака. Если в неординарном потоке заявки поступают только парами, только тройками и т. д., то неординарный поток легко свести к орди- нарному; для этого достаточно вместо потока отдельных заявок рас- смотреть поток пар, троек и т. д. Сложнее будет, если каждая заявка случайным образом может оказаться двойной, тройной и т. д. Тогда уже приходится иметь дело с потоком не однородных, а разнород- ных событий. В дальнейшем мы для простоты ограничимся рассмотрением орди- нарных потоков. Простейший поток играет среди потоков событий вообще особую роль, до некоторой степени аналогичную роли нормального закона среди других законов распределения. Мы знаем, что при суммирова- нии большого числа независимых случайных величин, подчиненных практически любым законам распределения, получается величина, приближенно распределенная по нормальному закону. Аналогично можно доказать, что при суммировании (взаимном наложении) большого числа ординарных, стационарных потоков с практически любым по- следействием получается поток, сколь угодно близкий к простейшему. Усло)вия, которые должны для этого соблюдаться, аналогичны условиям центральной предельной теоремы, а именно — складываемые потоки должны оказывать на сумму приблизительно равномерно малое влияние.
19.31 ПОТОК СОБЫТИИ. ПРОСТЕЙШИЙ ПОТОК И ЕГО СВОЙСТВА 523 Не доказывая этого положения и даже не формулируя математи- чески условия, которым должны удовлетворять потоких), проиллюстри- руем его элементарными рассуждениями. Пусть имеется ряд незави- симых потоков ПР П2......Г1я (рис. 19.3.2). «Суммирование» потоков состоит в том, что все моменты появления событий сносятся на одну и ту. же ось О/, как показано на рис. 19.3.2. Рис. 19.3.2. Предположим, что потоки Пр П2, • • • сравнимы по своему влиянию на суммарный поток (т. е. имеют плотности одного порядка), а число их достаточно велико. Предположим, кроме того, что эти потоки стационарны и ординарны, но каждый из них может иметь после- действие, и рассмотрим суммарный поток П = 2П* (19.3.1) А=1 на оси Ot (рис. 19.3.2). Очевидно, что поток П должен быть ста- ционарным и ординарным, так как каждое слагаемое обладает этим свойством и они независимы. Кроме того, достаточно ясно, что при увеличении числа слагаемых последействие в суммарном потоке, даже если оно значительно в отдельных потоках, должно постепенно сла- беть. Действительно, рассмотрим на оси Ot два неперекрывающихся отрезка *и т2 (рис. 19.3.2). Каждая из точек, попадающих в эти *) См. А. Я. X и и ч и н, «Математические методы теории массового обслу- живания», 1955.
524 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 отрезки, случайным образом может оказаться принадлежащей тому или иному потоку, и по мере увеличения п удельный вес точек, при- надлежащих одному и тому же потоку (и, значит, зависимых), должен уменьшаться, а остальные точки принадлежат разным потокам и появляются на отрезках т2 независимо друг от друга. Достаточно естественно ожидать, что при увеличении п суммарный поток будет терять последействие и приближаться к простейшему. Рис. 19.3.3. На практике оказывается обычно достаточно сложить 4-н5 пото- ков, чтобы получить поток, с которым можно оперировать как с простейшим. Простейший поток играет в теории массового обслуживания осо- бенно важную роль. Во-первых, простейшие и близкие к простейшим потоки заявок часто встречаются на практике (причины этого изло- жены выше). Во-вторых, даже при потоке заявок, отличающемся от простейшего, часто можно получить удовлетворительные по точ- ности результаты, заменив поток любой структуры простейшим с той же плотностью. Поэтому займемся подробнее простейшим потоком и его свойствами. Рассмотрим на оси Ot простейший поток событий П (рис. 19.3.3) как неограниченную последовательность случайных точек. Выделим произвольный участок времени длиной т. В главе 5 (п°5.9) мы доказали, что при условиях 1, 2 и 3 (стационарность, отсутствие последействия и ординарность) число точек, попадающих на участок т, распределено по закону Пуассона с математическим ожиданием а=Хт, (19.3.2) где К — плотность потока (среднее число событий, приходящееся на единицу времени). Вероятность того, что за время т произойдет ровно tn событий, равна иэ.з.з) В частности, вероятность того, что участок окажется пустым (не произой- дет ни одного события), будет Р0(т) = е-Ч (19.3.4) Важной характеристикой потока является закон распределения длины промежутка между соседними событиями. Рассмотрим случай-
19 3] ПОТОК СОБЫТИЙ. ПРОСТЕЙШИЙ поток И ЕГО СВОЙСТВА 525 ную величину Т — промежуток времени между произвольными двумя соседними событиями в простейшем потоке (рис. 19.3.3) и найдем ее функцию распределения F(0 = P(T<0. Перейдем к вероятности противоположного события 1 — f(0 = P(T>0. Это есть вероятность того, что на участке времени длиной Л начи- нающемся в момент tk появления одного из событий потока, не появится ни одного из последующих событий. Так как простейший поток не обладает последействием, то наличие в начале участка (в точке tk) какого-то события никак не влияет на вероятность появления тех или других событий в дальнейшем. По- этому вероятность P(T^t) можно вычислить по формуле (19.3.4) Ро(О = е-Ч откуда F (0 = 1 — е~* (t > 0). (19.3.5) Дифференцируя, найдем плотность распределения = (/>0). (19.3.6) Закон распределения с плот- ностью (19.3.6) называется показа- тельным законом, а величина т — его параметром. График плот- ности /(0 представлен на рис. 19.3.4. Показательный закон, как мы увидим в дальнейшем, играет боль- шую роль в теории дискретных случайных процессов с непрерывным временем. Поэтому рассмотрим его подробнее. Найдем математическое ожидание величины Т, распределенной ‘ по показательному закону: mt = M[T]==ftf(f)dt = lfte-*dt Q 0 или, интегрируя по частям, = (19.3.7) Дисперсия величины Т равна оо со D<==b(T)=f ^-=fkfr-*dt-^.
526 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ (ГЛ. 19 откуда D,==A-,' (19.3.8) а, = у. (19.3.9) Докажем одно замечательное свойство показательного закона. Оно состоит в следующем: если промежуток времени, рас- пределенный по показательному закону, уже дли лея некоторое время х, то это никак не влияет на за- кон распределения оставшейся ч а ст и промежутка: он будет таким же, как и закон распределения всего промежутка Т. Для доказательства рассмотрим случайный промежуток времени Т с функцией распределения F(t)—\ — е-и (19.3.10) и предположим, что этот промежуток уже продолжается некоторое время х, т. е. произошло событие Т > х. Найдем при этом предпо- ложении условный закон распределения оставшейся части промежутка 1\ = Т — х; обозначим его F^ (/) F™ (0 = Р(Г — х < 11Т > х). (19.3.11) Докажем, что условный закон распределения F{x\t) не зависит от т и равен F (t). Для того чтобы вычислить /^х)(/), найдем сна- чала вероятность произведения двух событий Т > т и Т — х < /. По теореме умножения вероятностей Р((7’>х)(Т —х<0) = Р(Т> х)Р(Т —х</|7>х)« откуда Г Р(Т>ч) Но событие (Т > х) (Г — х < Z) равносильно событию х < Т < / х, вероятность которого равна Р(*<Г</ + х) = 7(/ + х) — F(x). » С другой стороны, P(T>x)=l-F(x), следовательно, - ^(^ + x)-F(x) ~ Г 1— Л(т)
19.4] НЕСТАЦИОНАРНЫЙ ПУАССОНОВСКИЙ поток 527 откуда, согласно формуле (19.3.10), получим ’ (0 = -------------= 1 - е-» = F (0. что и требовалось доказать. Таким. образом, мы доказали, что если промежуток времени Т распределен по показательному закону, то любые сведения о том, сколько времени уже протекал этот промежуток, не влияют на закон распределения оставшегося времени. Можно доказать, что показатель- ный закон — единственный, обладающий таким свойством. Это свой- ство показательного закона представляет собой, в сущности, другую формулировку для «отсутствия последействия», которое является основным свойством простейшего потока. 19.4 Нестационарный пуассоновский поток . Если поток событий нестационарен, то его основной характери- стикой является мгновенная плотность Х(/). Мгновенной плотностью потока называется предел отношения среднего числа событий, приходящегося на элементарный участок времени (/, / —А/), к длине этого участка, кргда последняя стремится к нулю: Х(/) = lim т #+~т^ = т'(/), (19.4.1) А/->0 Ы где т (0 — математическое ожидание числа событий на участке (0, t). Рассмотрим поток однородны^ событий, ординарный и без после- действия, но не стационарный, с переменной плотностью Х(/). Такой поток называется нестационарным пуассоновским потоком. Это—первая ступень обобщения по сравнению с простейшим пото- ком. Легко показать методом, аналогичным примененному в п°5.9, что для такого потока число событий, попадающих на участок длины т, начинающийся в точке 10, подчиняется закону Пуассона Pm^t0) = ^e- (m==0, 1. 2, ...), (19.4.2) где а — математическое ожидание числа событий на участке от /0 ДО равное а= f (19.4.3) h Здесь величина а зависит не только от длины т участка, но и от его положения на оси Ot. Найдем для нестационарного потока закон распределения проме- жутка времени Т между соседними событиями. Ввиду нестационар- ное™ потока этот закон будет зависеть от того, где на оси Ot
528 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ ГГЛ 19 расположено первое из событий. Кроме того, он будет зависеть от вида функции Х(/). Предположим, что первое из двух соседних событий появилось в момент /0, и найдем при этом условии закон распределения времени Т между этим событием и последующим: Ло (0 = Р (Т < 0 = 1 - Р (Т t). Найдем P(7"^t) — вероятность того, что на участке от tQ до z0 t не появится ни одного события: -J мол Р(Т>/) = е-<»= е <« , откуда - J Х(/)Л F,o(O = l— е '• . (19.4.4) Дифференцируя, найдем плотность распределения Zo+f -j Л(/)Л Л. (')=*('<>+'? <19-4>5) Этот закон распределения уже не будет показательным. Вид его зависит от параметра /0 и вида функции Х(/). Например, при линей- ном изменении \(t) плотность (19.4.5) имеет вид + + °‘ 2 • (19.4.6) График этого закона при а = 0,4, Ь = 2 и /о = О,3 представлен на рис. 19.4.1.
19.51 ПОТОК С ОГРАНИЧЕННЫМ ПОСЛЕДЕЙСТВИЕМ (ПОТОК ПАЛЬМА) 529 Несмотря на то, что структура нестационарного пуассоновского потока несколько сложнее, чем простейшего, он очень удобен в прак- тических применениях: главное свойство простейшего потока — отсут- ствие последействия — в нем сохранено. А именно, если мы зафикси- руем на оси Ot произвольную точку tQ, то закон распределения ft(t) времени Т, отделяющего эту точку от ближайшего по времени будущего события, не зависит от того, что происходило на участке времени, предшествующем /0, и в самой точке tQ (т. е. появлялись ли ранее другие события и когда именно). 19.5. Поток с ограниченным последействием (поток Пальма) В предыдущем п° мы познакомились с естественным обобщением простейшего потока — с нестационарным пуассоновским потоком. Обобщением простейшего потока в другом направлении является поток с ограниченным последействием. Рассмотрим ординарный поток однородных событий (рис. 19.5.1). Этот поток называется потоком с ограниченным последействием О Рис. 19.5.1. (или потоком Пальма), если промежутки врейени между последо- вательными событиями Тр Т2, ... представляют собой независимые случайные величины. Очевидно, простейший поток является частным случаем потока Пальма: в нем расстояния 7\, Т2, ... представляют собой неза- висимые случайные величины, распределенные по показательному за- кону. Что касается нестационарного пуассоновского потока, то он не является потоком Пальма. Действительно, рассмотрим два соседних промежутка Tk и Tk+l в нестационарном пуассоновском потоке. Как мы видели в предыдущем п°, закон распределения промежутка между событиями в нестационарном потоке зависит от того, где этот про- межуток начинается, а начало промежутка Тк+1 совпадает с концом промежутка 7\; значит, длины этих промежутков зависимы. Рассмотрим примеры потоков Пальма. 1. Некоторая деталь технического устройства (например, радио- лампа) работает непрерывно до своего отказа (выхода из строя), после чего она мгновенно заменяется новой. Срок безотказной работы детали случаен; отдельные экземпляры выходят из строя независимо
530 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ (ГЛ. 19 друг от друга. При этих условиях поток отказов (или поток «восста- новлений») представляет собой поток Пальма. Если, к тому же, срок работы детали распределен по показательному закону, то поток Пальма превращается в простейший. 2. Группа самолетов идет в боевом порядке «колонна» (рис. 19.5.2) с одинаковой для всех самолетов скоростью V. Каждый самолет, кроме ведущего, обязан выдерживать строй, т. е. держаться на задан- ном расстоянии L от впереди идущего. Это расстояние, вследствие погрешностей радиодальномера, выдерживается с ошибками. Моменты Рис. 19.5.2. пересечения самолетами заданного рубежа образуют поток Пальма, так как случайные величины 7\ = ; Г2 = •; ... независимы. За- метим, что тот же поток не будет потоком Пальма, если каждый .из самолетов стремится выдержать заданное расстояние не от соседа, а от ведущего. Потоки Пальма часто получаются в виде выходных потоков си- стем массового обслуживания. Если на какую-либо систему поступает какой-то поток заявок, то он этой системой разделяется на два: по- ток обслуженных и поток необслуженных заявок. Поток необслуженных заявок часто поступает на какую-либо дру- гую систему массового обслуживания, поэтому представляет интерес изучить его свойства. Основной в теории выходных потоков является теорема Па л ьма, которую мы сформулируем без доказательства. Пусть на систему' массового обслуживания поступает по- ток заявок типа Пальма, причем заявка, заставшая все ка- налы занятыми, получает отказ (не обслуживается), Если при зтом время обслуживания имеет показательный закон рас- пределения, то поток необслуженных заявок является также' потоком типа Пальма. В частности, если входной поток заявок будет простейшим, то поток необслуженных заявок, не будучи простейшим, будет все же иметь ограниченное последействие. Интересным примером потоков с ограниченным последействием являются так называемые потоки Эрланга. Они образуются «про- сеиванием» простейшего потока.
19.5] ПОТОК С ОГРАНИЧЕННЫМ ПОСЛЕДЕЙСТВИЕМ (ПОТОК ПАЛЬМА) 531 Рассмотрим простейший поток (рис. 19.5.3) и выбросим из него каждую вторую точку (на рисунке выброшенные точки отмечены крестами). Оставшиеся точки образует поток; этот поток называется потоком Эрланга первого порядка (Э1). Очевидно, этот поток Рис. 19.5.3. есть поток Пальма: поскольку независимы промежутки между со- бытиями в простейшем потоке, то независимы и величины Гр Г2, .. получающиеся суммированием таких промежутков по два. Поток Эрланга второго порядка получится, если сохранить в простейшем потоке каждую третью точку, а две промежуточные выбросить (рис. 19.5.4). Рис. 19.5.4. Вообще, потоком Эрланга k-го порядка (Э*) называется по- ток, получаемый из простейшего, если сохранить каждую (&-|-1)-ю точку, а остальные выбросить. Очевидно, простейший поток можно рассматривать как поток Эрланга нулевого порядка (Эо)* Рис. 19.5.5, Нг.йдем закон распределения промежутка времени Т между сосед- ними событиями в потоке Эрланга £-го порядка (Э*). Рассмотрим на оси Ot (рис. 19.5.5) простейший поток с интервалами 7\, Г2, ... Величина Т представляет собой сумму /г-f-l независимых случайных величин г=2г„ t=i (19.5.1)
532 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ (ГЛ. 19 где Тр Т2. .... 7\+1 — независимые случайные величины, подчинен- ные одному и тому же показательному закону = (/>0). (19.5.2) Можно было бы найти закон распределения величины Т как компо- зицию (^+1) законов (19.5.2). Однако проще вывести его элемен- тарными рассуждениями. Обозначим fk(t) плотность распределения величины Т для по- тока э*; /*(*)<# есть вероятность того, что величина Т примет зна- чение между t и (рис. 19.5.5). Это значит, что последняя точка промежутка Т должна попасть на элементарный участок (t, а предыдущие k точек простейшего потока — на учас- ток (0, /)• Вероятность первого события равна X dt', вероятность вто- рого, на основании формулы (19.3.2), будет Перемножая эти вероятности, получим откуда = (/>0). (19.5.3) Закон распределения с плотностью (19.5.3) называется законом Эрланга k-го порядка. Очевидно, при k = 0 он обращается в пока- зательный /0(О = Х^а/ (^>0). (19.5.4) Найдем характеристики закона Эрланга fk (/): математическое ожи- дание mk и дисперсию Dk. По теореме сложения математических ожиданий Л+1 «» = 2 то = (*+1)'«о- i = l где т0 = у- — математическое ожидание промежутка между событи- ями в простейшем потоке. Отсюда (19.5.5) Аналогично по теореме сложения дисперсий Da = A+l., ot = U + Lt (19.5.6) * А* А
19.51 ПОТОК С ОГРАНИЧЕННЫМ ПОСЛЕДЕЙСТВИЕМ (ПОТОК ПАЛЬМА) 533 Плотность Л4 потока Эц. будет обратна величине тк ла=т4т- (19.5.7) Таким образом, при увеличении порядка потока Эрланга увеличи- ваются как математическое ожидание, так и дисперсия промежутка времени между событиями, а плотность потока падает. Выясним, как будет изменяться поток Эрланга при А~>оо, если его плотность будет сохраняться постоянной? Пронормируем вели- чину Т так, чтобы ее математическое ожидание (и, следовательно, плотность потока) оставалось неизменным. Для этого изменим мас- штаб по оси времени и вместо Т рассмотрим величину Г=-ГрГ. (19.5.8) Назовем такой поток нормированным потоком Эрланга k-го по- рядка. Закон распределения промежутка Т между событиями этого потока будет . 7,(0= (<>Р). (19.5.9) где Aft=k(A4-l), или 7t(0 = Х(МП (Х(*+1)О*е-Х(*+1)< (/>0). (19.5.10) Математическое ожидание величины Т, распределенной по закону (19.5.10), не зависит от k и равно = = где X — плотность потока, совпадающая при любом k с плотностью исходного простейшего потока. Дисперсия величины Т равна &k ~ (Л-f- I)2 = X2 (£-Н) (19.5.11) и неограниченно убывает с возрастанием k. Таким образом, мы приходим к выводу: при неограниченном увеличении k нормированный поток Эрланга приближается к регулярному потоку с постоянными интервалами, рав- 1 ными у. Это свойство потоков Эрланга удобно в практических примене- ниях: оно дает возможность, задаваясь различными Л, получить любую степень последействия: от полного отсутствия (Л = 0) до жесткой функциональной связи между моментами появления событий (k = оо). Таким образом, порядок потока Эрланга может служить как бы «ме- рой последействия», имеющегося в потоке. В целях упрощения часто
534 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 бывает удобно заменить реальный поток заявок, имеющий последей- ствие, нормированным потоком Эрланга с примерно теми же характе- ристиками промежутка между заявками: математическим ожиданием и дисперсией. Пример. В результате статистической обработки промежутков между Заявками в потоке получены оценки для математического ожидания и дис- персии величины Г: mt = 2 (мин), Dt = 0,8 (мин2). Заменить этот поток нормированным потоком Эрланга с теми же характе- ристиками. Решение. Имеем X = J- = 0,5. mt Из формулы (19.5.11) получим 0^ =5’ А = 4' Поток можно приближенно заменить нормированным потоком Эрланга чет- вертого порядка. 19.6. Время обслуживания Кроме характеристик входного потока заявок, режим работы си- стемы зависит еще от характеристик производительности самой си- стемы: числа каналов п и быстродействия каждого канала. Одной из важнейших величин, связанных с системой, является в р е м.я обслу- живания одной заявки Тоб. Эта величина может быть как не- случайной, так и случайной. Очевидно, более общим является слу- чайное время-обслуживания. Рассмотрим случайную величину Тоб и обозначим G(t) ее функ- цию распределения: О(0 = Р(Тоб<0. (19.6.1) a g(f)— плотность распределения: g(t) = G'(t). (19.6.2) Для практики особый интерес представляет случай, когда вели- чина Тоб имеет показательное распределение g(t) = ^ (/>0), (19.6.3) где параметр р— величина, обратная среднему времени обслуживания одной заявки: т,об = А1(Тоб]. (19.6.4) •об Особая роль, которую играет в теории массового обслуживания показательный закон распределения величины Тоб, связана с тем
19.6] ВРЕМЯ ОБСЛУЖИВАНИЯ 535 свойством этого закона, которое было доказано в п° 19.4. В приме- нении к данному случаю оно формулируется так: если в како й-т о момент /0 происходит обслуживание заявки, то за- кон распределения оставшегося времени обслужива- ния не зависит от того, сколько времени обслужи- вание уже продолжалось. На первый взгляд допущение о том, что время обслуживания распределено по показательному закону, представляется довольно искусственным. В ряде практических задач кажется естественнее пред- положить его либо совсем не случайным, либо распределенным по нормальному закону. Однако существуют условия, в которых время обслуживания действительно распределяется по закону, близкому к показательному. , Это, прежде всего, все задачи, в которых обслуживание сводится к ряду «попыток», каждая из которых приводит к необходимому результату с какой-то вероятностью р. Пусть, например, «обслуживание» состоит в обстреле какой-то цели и заканчивается в момент ее поражения. Обстрел ведется неза- висимыми выстрелами с некоторой средней скорострельностью К вы- стрелов в единицу времени. Каждый выстрел поражает цель с вероят- ностью р. Чтобы не связывать себя необходимостью точного учета момента каждого выстрела, предположим, что они происходят в слу- чайные моменты времени и образуют простейший поток П с плот- ностью X (рис. 19.6.1). Рис. 19.6.1. Выделим мысленно из этого потока другой — поток «успешных», или «поражающих», выстрелов (они отмечены кружками на рис. 19.6.1). Выстрел будем называть «успешным», если он приводит к поражению цели (если только цель не была поражена ранее). Нетрудно убедиться, что успешные выстрелы тоже образуют простейший поток П* с плот- ностью А = Хр (исходный поток П — простейший, а каждый выстрел может стать поражающим, независимо от других, с вероятностью р). Вероятность того, что цель будет поражена до момента /, будет равна О(0 = Р(7’об<0 = 1-е-А/. откуда плотность распределения времени «обслуживания» g(O = Ae-A/, а это есть показательный закон с параметром р = Д.
536 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 Показательным законом распределения времени обстрела до пора- жения цели можно приближенно пользоваться и в случае, когда вы- стрелы не образуют простейшего потока, а отделены, например, строго определенными промежутками времени tv если только ве- роятность поражения одним выстрелом р не очень велика. Для ил- люстрации приведем на одном и том же графике (рис. 19.6.2) функ- цию распределения момента поражающего выстрела (ступенчатая линия) для случая р = 0,4, tx — 1 и функцию распределения показа- тельного закона с парамет- ром |1 = р —0,4 (плавная кривая). Как видно на рис. 19.6.2, непрерывное показательное распределе- ние хорошо соответствует характеру нарастания функ- ции распределения для ди- скретного случая. Есте- ственно, если моменты вы- стрелов не будут строго t определенными, соответст- вие с показательным законом будет еще лучше. Случай стрельбы — не единственный, когда обслу- живание осуществляется рядом «попыток». К такому типу часто можно отнести обслуживание по устранению неисправностей технических устройств, когда поиски неисправной детали или узла осуществляются рядом тестов или проверок. К такому же типу можно отнести задачи, где «обслуживание» заключается в обнаружении какого-либо объекта радиолокатором, если объект с какой-то вероятностью может быть обнаружен при каждом цикле обзора. Показательным законом хорошо описываются и те случаи, когда плотность распределения времени обслуживания по тем или иным причинам убывает при возрастании аргумента /. Это бывает, когда основная масса заявок обслуживается очень быстро, а значительные задержки в обслуживании наблюдаются редко. Рассмотрим, например, окно почтового отделения, где продаются марки и конверты, а также принимаются почтовые отправления и переводы. Основная масса по- сетителей покупает марки или конверты и обслуживается очень быстро. Реже встречаются заявки на отправление заказных писем, они обслуживаются несколько дольше. Переводы посылаются еще реже и обслуживаются еще дольше. Наконец, в самых редких слу- чаях представители организаций отправляют сразу большое' коли- чество писем. Гистограмма распределения времени обслуживания имеет вид, представленный на рис. 19.6.3» Так как плотность рас-
МАРКОВСКИЙ СЛУЧАЙНЫЙ ПРОЦЕСС 537 19.71 пределения убывает с возрастанием /, можно без особой погрешности выровнять распределение с помощью показательного закона, подобрав соответствующим образом его параметр р.. Разумеется, показательный закон не является универсальным законом распределения времени обслуживания. Часто время обслу- живания лучше описывается, например, законом Эрланга. Однако, к счастью, пропускная спо- собность и другие характе- ристики системы массового обслуживания сравнительно мало зависят от вида закона распределения времени об- служивания, а зависят, глав- ным образом, от его среднего значения Поэтому в теории массового обслужи- вания чаще всего пользуются допущением, что время об- служивания распределено по показательному закону. Эта гипотеза позволяет сильно упростить математический аппарат, применяемый для \?О) Рис. 19.6.3. решения задач массового обслуживания, и, в ряде случаев, получить простые аналитические формулы для ха- рактеристиклтропускной способности системы. 19.7. Марковский случайный процесс Допущения о пуассоновском характере потока заявок и о пока- зательном распределении времени обслуживания ценны тем, что позволяют применить в теории массового обслуживания аппарат так называемых марковских случайных процессов. Процесс, протекающий в физической системе, называется мар- ковским (или процессом без последействия), если для каждого мо- мента времени вероятность любого состояния системы в бу- дущем зависит только от состояния системы в настоящий момент (/0) и не зависит от того, каким образом система пришла в это состояние. Рассмотрим элементарный пример марковского случайного про- цесса. По оси абсцисс Ох случайным образом перемещается точка X. В момент времени Z = 0 точка X находится в начале координат (х = 0) и остается там в течение одной секунды. Через секунду бросается монета; если выпал герб—точка X перемещается на одну единицу длины вправо, если цифра — влево. Через секунду снова бросается монета и производится такое же случайное перемещение.
538 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ 19 и т. д. Процесс изменения положения точки (или; как говорят, «блуждания») представляет собой случайный процесс с дискретным временем (/ = 0, 1, 2, ...,) и счетным множеством состояний хо = О; хх = 1; х_х =—1; х2 = 2; х_2 ——2; ... Схема возможных переходов дл^ этого процесса показана на рис. 19.7.1. Покажем, что этот процесс — марковский. Действительно, пред- ставим себе, что в какой-то момент времени /0 система находится, например, в состоянии хх— на одну единицу правее начала коорди- нат. Возможные положения точки через единицу времени будут х0 и х2 с вероятностями 1/2 и 1/2; через две единицы — хР лг3 с вероятностями 1/4, 1/2, 1/4 и так далее. Очевидно, все эти ве- роятности зависят только от того, где находится точка в данный момент /0, и совершенно не зависят от того, как она пришла туда. Рис. 19.7.1. Рассмотрим другой пример. Имеется техническое устройство X, состоящее из элементов (деталей) типов а и Ь, обладающих разной долговечностью. Эги элементы в случайные моменты времени и неза- висимо друг от друга могут выходить из строя. Исправная работа каждого элемента безусловно необходима для работы устройства в целом. Время безотказной работы элемента — случайная величина, распределенная по показательному закону; для элементов типа а и b параметры этого закона различны и равны соответственно \а и В случае отказа устройства немедленно принимаются меры для вы- явления причин и обнаруженный неисправный элемент немедленно заменяется новым. Время, потребное для восстановления (ремонта) устройства, распределено по показательному закону с параметром (если вышел из строя элемент типа а) и (если вышел из строя элемент типа Ь). В данном примере случайный процесс, протекающий в системе, есть марковский процесс с непрерывным временем и конечным мно- жеством состояний: л*, — все элементы исправны, система работает, л*!—неисправен элемент типа а, система ремонтируется1), х2 — неисправен элемент типа Ь, система ремонтируется. Схема возможных переходов дана на рис. 19.7.2. ’) Предполагается, что детали могут выходить из строя только во время работы системы; выход из строя одновременно двух или более деталей прак- тически невозможен.
19.7! МАРКОВСКИЙ СЛУЧАЙНЫЙ ПРОЦЕСС 539 Действительно, процесс обладает марковским свойством. Пусть например, в момент /0 система находится в состоянии х0 (исправна). Так как время безотказной работы каждого элемента— показатель- ное1)» то момент отказа каждого элемента в будущем не зависит от того, сколько времени он уже работал (когда поставлен). Поэтому вероятность того, что в будущем система останется в состоянии xQ или уйдет из него, не зависит от «предыстории» процесса. Пред- положим теперь, что в момент /0 система находится в состоянии хг (неисправен элемент типа а). Так как время ремонта тоже показа- тельное, вероятность окончания ремонта в любое время после не зависит от того, когда начался ремонт и когда были поставлены остальные (исправные) элементы. Таким образом, процесс является марковским. Заметим, что показательное распределение вре- мени работы элемента и показательное распреде- ление времени ремонта — существенные условия, без которых процесс не был бы марковским. Дей- ствительно, предположим, что время исправной работы элемента распределено не по показатель- Рис. 19.7.2. ному закону, а по какому-нибудь другому — например, по закону равномерной плотности на участке (fp £2). Это значит, что каждый элемент с гарантией работает время tv а на участке от tx до t2 может выйти из строя в любой момент с одина- ковой плотностью вероятности. Предположим, что в какой-то момент времени t0 элемент, работает исправно. Очевидно, вероятность того, что элемент выйдет из строя на каком-то участке времени в будущем, зависит от того, насколько давно поставлен элемент, т. е. зависит от предыстории, и процесс не будет марковским. Аналогично обстоит дело и с временем ремонта Тр; если оно не показательное и элемент в момент tQ ремонтируется, то оставшееся время ремонта зависит от того, когда он начался; процесс снова не будет марковским. Вообще показательное распределение играет особую роль в теории марковских случайных процессов с непрерывным временем. Легко убе- диться, что в стационарном марковском процессе время, в течение которого система остается в каком-либо состоянии, распределено всегда по показательному закону (с параметром, зависящим, вообще говоря, от этого состояния). Действительно, предположим, что в мо- мент tQ система находится в состоянии xk и до этого уже*находилась в нем какое-то время. Согласно определению марковского процесса, вероятность любого события в будущем не зависит от предыстории; в частности, вероятность того, что система уйдет из состояния хк ‘) Так говорят кратко вместо «имеет показательный закон распреде- ления».
540 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 в течение времени /, не должна зависеть от того, сколько времени система уже провела в этом состоянии. Следовательно, время пребы- вания системы в состоянии xk должно быть распределено по показа- тельному закону. В случае, когда процесс, протекающий в физической системе со счетным множеством состояний и непрерывным временем, является марковским, можно описать этот процесс с помощью обыкновенных дифференциальных уравнений, в которых неизвестными функциями являются вероятности состояний px(t)> р2(0» ••• Составление и ре- шение таких уравнений мы продемонстрируем в следующем п° на примере простейшей системы массового обслуживания. 19.8. Система массового обслуживания с отказами. Уравнения Эрланга Системы массового обслуживания делятся на два основных типа: а) системы с отказами, б) системы с ожиданием. В системах с отказами заявка, поступившая в момент, когда все каналы обслуживания заняты, немедленно получает отказ, поки- дает систему и в дальнейшем процессе обслуживания не участвует. В системах с ожиданием заявка, заставшая все каналы заня- тыми, не покидает систему, а становится в очередь и ожидает, пока не освободится какой-нибудь канал. В настоящем п° мы рассмотрим систему с отказами как наиболее простую. Рис. 19.8.1. Пусть имеется n-канальная система массового обслуживания с отказами. Рассмотрим ее как физическую систему X с конечным множеством состояний: — свободны все каналы, хх —занят ровно один канал, xk — занято ровно k каналов, хп—заняты все п каналов. Схема возможных переходов дана на рис. 19.8.1. Поставим задачу: определить вероятности состояний системы pk(t) (£ = 0, 1...п) для любого момента времени t. Задачу будем решать при следующих допущениях: 1) поток заявок — простейший, с плотностью К;
19.8] СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОТКАЗАМИ 541 2) время обслуживания Тоб — показательное, с параметром (л== —L. = (/>0). (19.8.1) Заметим, что параметр р в формуле (19.8.1) полностью аналогичен параметру X показательного закона распределения промежутка Т между соседними событиями простейшего потока: /(0 = Х^ (/>0). (19.8.2) Параметр X имеет смысл «плотности потока заявок». Аналогично, величину р. можно истолковать как «плотность потока освобождений» занятого канала. Действительно, представим себе канал, непрерывно занятый (бесперебойно снабжаемый заявками); тогда, очевидно, в этом канале будет идти простейший поток освобождений с плотностью р. Так как оба потока — заявок и освобождений — простейшие, про- цесс, протекающий в системе, будет марковским. Рассмотрим возможные состояния системы и их вероятности Ро(0. .... рл«). (19.8.3) Очевидно, для любого момента времени п ЪркЮ = 1- (19.8.4) А=0 Составим дифференциальные уравнения для всех вероятностей (19.8.3), начиная с р0(/). Зафиксируем момент времени t и найдем вероятность того» чт0 в момент система будет находиться в со- стоянии х0 (все каналы свободны). Это может про- изойти двумя способами (рйс. 19.8.2): i--- А — в момент t система находилась в состоя- xt нии х0, а за время Lt не перешла из нее в хг (не ---- пришло ни одной заявки), Рис. 19.8.2, В — в момент t система находилась в состоя- нии а за время Lt канал* * освободился, и система перешла в со- стояние xQ j). Возможностью «перескока» системы через состояние (например, из х2 в х0 через л^) за малый промежуток времени можно пренебречь, как величиной высшего порядка малости по сравнению с Р (А) и Р (В)2). По теореме сложения вероятностей имеем р0(/+Д/)«Р(Л)+Р(В). (19.8.5) 0 На рис. 19.8.2 возможные способы появления состояния х0 в момент t + Д£ показаны стрелками, направленными в х0; стрелка, направленная из х0 в перечеркнута в знак того, что система не должна выйти из состоя- ния Xq. *) В дальнейшем мы все время будем пренебрегать слагаемыми высших порядков малости по сравнению с Lt. В пределе при Д/->0 приближенные равенства перейдут в точные.
542 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ (9 Найдем вероятность события Л по теореме умножения. Вероят- ность того, что в момент t система была в состоянии х0, равна ро(О- Вероятность того, что за время Д/не придет ни одной заявки, равна £“Ха/. С точностью до величин высшего порядка малости е“ХА/« 1 — ХД/. (19.8.6) Следовательно, Р(Л)«ро(0(1-ХД/). Найдем Р(В). Вероятность того, что в момент t система была в состоянии равна px(f). Вероятность того, что за время Д/ канал освободится, равна 1 — с точностью до малых величин выс- шего порядка 1—е-М*« д/. Следовательно, P(B)^px(t)^Lt. Отсюда Ро (t+ДО « Ро (0 (1 - X до+|АР1 (0 д/. Перенося pQ(t) в левую часть, деля на Д/ и переходя к пределу при Д/->0, получим дифференциальное уравнение для р0(0‘ ^Л = -Хро(О4-НА(О. (19.8.7) Аналогичные дифференциальные уравнения могут быть составлены и для других вероятностей состояний. Возьмем любое А(0<А<а) и найдем вероятность рй(^4“Д0 того, что в момент / +Д£ система будет в состоянии xk (рис. 19.8.3). Эта вероятность вычисляется как вероят- ность суммы уже не двух, а трех событий (по числу стрелок, направленных в состояние xk): А—в момент t система была в состоянии хк (занято k каналов), а за время Д/ не перешла из него ни в хл+1, ни в xk_x (ни одна заявка Рис. 19.8.3. не поступила, ни один канал не освободился); В — в момент t система была в состоянии xk_x (занято k—1 каналов), а за время Д/ перешла в xk (пришла одна заявка); С—в момент t система была в состоянии хк+х (занято А 4-1 каналов), а за время Д£ один из каналов освободился. Найдем Р(Л). Вычислим сначала вероятность того, что за время Lt не придет ни одна заявка и не освободится ни один из каналов: е -х дг -F а/)* = е -<х+адА/. Пренебрегая малыми величинами высших порядков, имеем ~ 1 _ (Х4-^)Д/,
19.8] СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОТКАЗАМИ 543 откуда Р(Л)«рл(ОП-(>-+МДЛ. Аналогично Р(В)^рк_1апм. и Ч-Р*+1(О(Л-!-1)|* Д/. Отсюда получаем дифференциальное уравнение для рк (/) (0 < k < в): = Хр>_1 (О - (X + ад рк (t) + (к 4-1) р.рк+1 (/). U* Составим уравнение для последней вероятности pn(f) (рис. 19.8.4). Имеем рп (t + Д0 « рп (0 (1 - ДО + рп_г (О X Д/, где 1—пр.Д/— вероятность того, что за время Lt Рис |984 не освободится ни один канал; ХД£-^вероятность * . того, что за время Lt придет одна заявка. Получаем дифференциаль- ное уравнение для рп#)*. ^^^Pn-lW — nV-Pntf)- Таким образом, получена система дифференциальных уравнений для вероятностей рх (/), р2 (t), .... ра (/): ^Я- = -Хро(ОЧ-НА(О. = Хр*_! (О - (X + РЛ (0 4- (* + О W>*+i (О (О < k < п). (19.8.8) -f^F- = Xp/,l1(O-nHA.(O. Уравнения (19.8.8) называются уравнениями Эрланга. Интегри- рование системы уравнений (19.8.8) при начальных условиях ?о(О)=1; />1(0)= ••• =Ря(0) = 0
544 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ (ГЛ 19 (в начальный момент все каналы свободны) дает зависимость p.k (t) для любого k. Вероятности pk(f) характеризуют среднюю загрузку системы и ее изменение с течением времени. В частности, рп (t) есть вероятность того, что заявка, пришедшая в момент t, застанет все каналы занятыми (получит отказ): ~ ^отк = Рп (О* Величина —pn(t) называется относительной пропу- скной способностью системы. Для данного момента t это есть отно- шение среднего числа обслуженных за единицу времени заявок к среднему числу поданных. Система линейных дифференциальных уравнений (19.8.8) сравни- тельно легко может быть проинтегрирована при любом конкретном числе каналов п. Заметим, что при выводе уравнений (19.8.8) мы нигде не пользо- вались допущением о том, что величины X и р. (плотности потока заявок и «потока освобождений») постоянны. Поэтому уравнения (19.8.8) остаются справедливыми и для зависящих от времени Х(/). |л (/), лишь бы потоки событий, переводящих систему из состояния в состояние, оставались пуассоновскими (без этого процесс не будет марковским). 19.9. Установившийся режим обслуживания. Формулы Эрланга Рассмотрим я-канальную систему массового обслуживания с отка- зами, на вход которой поступает простейший поток заявок с плот- ностью X; время обслуживания — показательное, с параметром р.. Воз- никает вопрос: будет ли стационарным случайный процесс, протекаю- щий в системе? Очевидно, что в начале, сразу после включения системы в работу, протекающий в ней процесс еще не будет стацио- нарным: в системе массового обслуживания (как и в любой динами- ческой системе) возникнет так называемый «переходный», нестацио- нарный процесс. Однако, спустя некоторое время, этот переходный процесс затухнет, и система перейдет на стационарный, так называе- мый «установившийся», режим, вероятностные характеристики кото- рого уже не будут зависеть от времени. Во многих задачах практики нас интересуют именно характери- стики предельного установившегося режима обслуживания. Можно доказать, что для любой системы с отказами такой пре- дельный режим существует, т. е. что при Z—>оо все вероятности Ро(0» Р1(0» •••> Рп№ стремятся к постоянным пределам р0, pv ... ..., рп> а все их производные — к нулю. Чтобы найти предельные вероятности р0, pv ..., рп (вероятности состояний системы в установившемся режиме), заменим в уравнениях (19.8.8) все вероятности pk{t) их пределами рк, а все
19.9] УСТАНОВИВШИЙСЯ РЕЖИМ ОБСЛУЖИВАНИЯ. ФОРМУЛЫ ЭРЛАНГА 545 производные положим равными нулю. Получим систему уже не диф- ференциальных, а алгебраических уравнений — хА,4-Н/’1 = 0. Хр0 — (х + Н) Pi + 21Ч>2 = — ^Pk-l + + 1)М’*+1==° Z1QQ п (О <*<«), (1S.S.1) Х/>„_2 — IX 4- (я — 1) Н Рп-1 + яр.р„ = о. Хря-1 — »РРЯ = О- К этим уравнениям необходимо добавить условие = (19.9.2) л=о Разрешим систему (19.9.1) относительно неизвестных pQt pv ... .... рп. Из первого уравнения имеем pi=4^- <19-9-з> г* Из второго, с учетом (19.9.3), Р2=41— ХРо Н- (^ Н- И) — 4 = 4[~Xpo+V;’o+X/’o]^=^'J’o: (19-9-4) аналогично из третьего, с учетом (19.9.3) и (19.9.4), 1 / X2 , хз । X2 о \ X3 Рз ~ Зр. \ |л Р() 2|л2 Ро + 2^.2 * 2M>oJ — з| цз Ро» и вообще, для любого k п Xй = (19.9.5) Введем обозначение 4 = а (19.9.6) * и назовем величину а приведенной плотностью потока заявок. Это есть не что иное, как среднее число заявок, приходя- щееся на среднее время обслуживания одной заявки. Действительно, а = — = Xmt Л, Ч)б* 35-3015
546 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ (ГЛ 19 где mto6 — М [Тоб] — среднее время обслуживания одной заявки. В новых обозначениях формула (19.9.5) примет вид Р* = 7ГРо- (19.9.7) Формула (19.9.7) выражает все вероятности pk через р0. Чтобы вы- разить их непосредственно через аил, воспользуемся условием (19.9.2). Подставив в него (19.9.7), получим П П ь V V 1 Pk — Ро —1» л=о *=0 откуда Ро=-^—• (19.9.8) Sak Л=0 Подставляя (19-9.8) в (19.9.7), получим окончательно aft Pk^-ir^ (0<Л<п). (19.9.9) уч а* Л=0 Формулы (19.9.9) называются формулами Эрланга. Они дают предельный закон распределения числа занятых каналов в зависимости от характеристик потока заявок и производительности системы обслу- живания. Полагая в формуле (19.9.9) k — n, получим вероятность отказа (вероятность того, что поступившая заявка найдет все ка- налы занятыми): ап --- (19.9.10) Zd ki *=0 В частности, для одноканальной системы (п = 1) ^отк — Pi= утру * (19.9.11) а относительная пропускная способность ? = 1-Ротк = Тр-- (19.9.12) Формулы Эрланга (19.9.9) и их следствия (19.9.10) —(19.9.12) выведены нами для случая показательного распределения времени
19.9] УСТАНОВИВШИЙСЯ РЕЖИМ ОБСЛУЖИВАНИЯ. ФОРМУЛЫ ЭРЛАНГА 547 обслуживания. Однако исследования последних лет1 2 *) показали, что эти формулы остаются справедливыми и при любом законе распре- деления времени обслуживания, лишь бы входной поток был про- стейшим. Пример 1. Автоматическая телефонная станция имеет 4 линии связи. На станцию поступает простейший поток заявок с плотностью X = 3 (вызова в минуту). Вызов, поступивший в момент, когда все линии заняты, получает отказ*). Средняя длительность разговора 2 минуты. Найти: а) вероятность отказа; б) среднюю долю времени, в течение которой телефонная станция вообще не загружена. Решение. Имеем = 2 (мин); р. = 0,5 (разг/мин), а = “ = 6. а) По формуле (19.9.10) получаем а4 4Т Ротк == Л ------i----5----3-----г ~ 0,47. 1 । а । а2 । а3 । а 1 + ТТ+7Г+зТ+4Т б) По формуле (19.9.8) 14-^4- + 11^21'3!^ 4! Несмотря на то, что формулы Эрланга в точности справедливы только при простейшем потоке заявок, ими можно с известным при- ближением пользоваться и в случае, когда поток заявок отличается от простейшего (например, является стационарным потоком с огра- ниченным последействием). Расчеты показывают, что замена произ- вольного стационарного потока с не очень большим последействием простейшим потоком той же плотности X, как правило, мало влияет на характеристики пропускной способности системы. Наконец, можно заметить, что формулами Эрланга можно при- ближенно пользоваться и в случае, когда система массового обслу- живания допускает ожидание заявки в очереди, но когда срок ожи- дания мал по сравнению со средним временем обслуживания одной заявки. Пример 2. Станция наведения истребителей имеет 3 канала. Каждый канал может одновременно наводить один истребитель на одну цель. Среднее время наведения истребителя на цель т/об = 2 мин. Поток целей — простей- ший, с плотностью Х=1,5 (самолетов в минуту). Станцию можно считать «системой с отказами», так как цель, по которой наведение не началось в момент, когда она вош ла в зону действия истребителей, вооб!це остается не *) См. Б. А. Севастьянов, Эргодическая теорема для марковских процессов и ее приложение к телефонным системам с отказами. Теория ве- роятностей и ее применения, т. 2, вып. 1, 1957. 2) Предполагается, что вторичные вызовы абонентов, получивших отказ} не нарушают пуассоновского характера потока заявок.
548 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ 19 атакованной. Найти среднюю долю целей, проходящих через зону действия не обстрелянными. Решение. Имеем р- == 4- = 0,5: Х=1,5; а = —= 3. 2 р По формуле (19.9.10) З3 3! Р°тк = Рз-= О « 03^ «0.346, 1! + 21 + 31 Вероятность отказа ~ 0,346; она же выражает среднюю долю необстрелян- ных целей. Заметим, что в данном примере плотность потока целей выбрана такой, что при их регулярном следовании одна за другой через определенные интер- валы и при точно фиксированном времени наведения ТОб = 2 мин номиналь- ная пропускная способность системы достаточна для того, чтобы обстрелять все без исключения цели. Снижение пропускной способности происходит из-за наличия случайных сгущений и разрежений в потоке целей, которые нельзя предвидеть заранее. 19.10. Система массового обслуживания с ожиданием Система массового обслуживания называется системой с ожида- нием, если заявка, заставшая все каналы занятыми, становится в оче- редь и ждет, пока не освободится какой-нибудь канал. Если время ожидания заявки в очереди ничем не ограничено, то система называется «чистой системой с ожиданием». Если оно огра- ничено какими-то условиями, то система называется «системой сме- шанного типа». Это промежуточный случай между чистой системой с отказами и чистой системой с ожиданием. Для практики наибольший интерес представляют именно системы смешанного типа. Ограничения, наложенные на ожидание, могут быть различного типа. Часто бывает, что ограничение накладывается на время ожи- дания заявки в очереди; считается, что оно ограничено сверху каким-то сроком Тож, который может быть как строго определенным, так и случайным. При этом ограничивается только срок ожидания в очереди, а начатое обслуживание доводится до конца, независимо от того, сколько времени продолжалось ожидание (например, клиент в парикмахерской, сев в кресло, обычно уже не уходит до конца обслуживания). В других задачах естественнее наложить ограниче- ние не на время ожидания в очереди, а на общее время пребы- вания заявки в системе (например, воздушная цель может пробыть в зоне стрельбы лишь ограниченное время и покидает ее независимо от того, кончился обстрел или нет). Наконец, можно рас- смотреть и такую смешанную систему (она ближе всего к типу тор- говых предприятий, торгующих предметами не первой необходимости), когда заявка становится в очередь только в том случае, если длина
19.10] СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОЖИДАНИЕМ 549 -с очереди не слишком велика. Здесь ограничение накладывается на число заявок вочереди. > В системах с ожиданием существенную роль играет так назы- ваемая «дисциплина очереди». Ожидающие заявки могут вызываться на обслуживание как в порядке очереди (раньше прибывший раньше и обслуживается), так и в случайном, неорганизованном порядке. Существуют системы массового обслуживания «с преимуществами», где некоторые заявки обслуживаются предпочтительно перед другими («генералы и полковники вне очереди»). Каждый тип системы с ожиданием имеет свои особенности и свою математическую теорию. Многие из них описаны, например, в книге Б. В. Гнеденко «Лекции по теории массового обслуживания». Здесь мы остановимся только на простейшем случае смешанной системы, являющемся естественным обобщением задачи Эрланга для системы с отказами. Для этого случая мы выведем дифференциаль- ные уравнения, аналогичные уравнениям Эрланга, и формулы для вероятностей состояний в установившемся режиме, аналогичные фор- мулам Эрланга. Рассмотрим смешанную систему массового обслуживания X с п каналами при следующих условиях. На вход системы поступает простейший поток заявок с плотностью X. Время обслуживания одной заявки Тоб — показательное, с параметром р, = —. Заявка, застав- т'об шая все каналы занятыми, становится в очередь и ожидает обслужи- вания; время ожидания ограничено некоторым сроком Тож; если до истечения этого срока заявка не будет принята к обслуживанию, то она покидает очередь и остается необслуженной. Срок ожидания Тож будем считать случайным и распределенным по показательному закону h(t) = ve-« (/>0), где параметр v—величина, обратная среднему сроку ожидания: v = —-—; = Ж [Тож]. mt *°ж 1 ОЖ1 » . ГОЖ Параметр v полностью аналогичен параметрам X и р. потока за- явок и «потока освобождений». Его можно интерпретировать, как плотность «потока уходов» заявки, стоящей в очереди. Действительно, представим себе заявку, которая только и делает, что становится в очередь и ждет в ней, пока не кончится срок ожидания Тож, после чего уходит и сразу же снова становится в очередь. Тогда «поток уходов» такой заявки из очереди будет иметь плотность у. Очевидно, при v —> оо система смешанного Типа превращается в чистую систему с отказами; при v—>0 она превращается в чистую систему с ожиданием.
550 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ (ГЛ 19 Заметим, что при показательном законе распределения срока ожи- дания пропускная способность системы не зависит от того, обслужи- ваются ли заявки в порядке очереди или в случайном порядке: для каждой заявки закон распределения оставшегося времени ожидания не зависит от того, сколько времени заявка уже стояла в очереди. Благодаря допущению, о пуассоновском характере всех потоков событий, приводящих к изменениям состояний системы, процесс, про- текающий в ней, будет марковским. Напишем уравнения для вероят- ностей состояний системы. Для этого, прежде всего, перечислим эти состояния. Будем их нумеровать не по числу занятых каналов, а по числу связанных с системой заявок. Заявку будем называть «связанной с системой», если она либо находится в состоянии обслу- живания, либо ожидает очереди. Возможные состояния системы будут: х0— ни один канал не занят (очереди нет),. Xj — занят ровно один канал (очереди нет), х* — занято ровно k каналов (очереди нет), хп — заняты все п каналов (очереди нет), заняты все п каналов, одна заявка стоит в очереди, xn+s— заняты все п каналов, s заявок стоят в очереди, Число заявок стоящих в очереди, в наших условиях может быть сколь угодно большим. Таким образом, система X имеет беско- нечное (хотя и счетное) множество состояний. Соответственно, число описывающих ее дифференциальных уравнений тоже будет беско- нечным. Очевидно, первые п дифференциальных уравнений ничем не будут отличаться от соответствующих уравнений Эрланга: ^) = -kPo(O+^l (О. (О - (X + м РЬ (О + (k ч-1) (О, = ХРя_2 (0 - [X -и» -1) И1 Ра_г (0 4- (О. Отличие новых уравнений от уравнений Эрланга начнется при k = n. Действительно, в состояние хп система с отказами может
19.10] СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОЖИДАНИЕМ 551 перейти только из состояния хл-1; что касается системы с ожида- нием, то она может перейти в состояние хп не только из хл-1, но и из хл+1 (все каналы заняты, одна заявка стоит в очереди). Составим дифференциальное уравнение для pn(t). Зафиксируем мо- мент t и найдем pn(t— вероятность того, что система в момент /-f-Д/ будет в состоянии хп. Это может осуществиться тремя спо- собами: 1) в момент t система уже была в состоянии хп> а за время А/ не вышла из него (не пришла ни одна заявка и ни один из каналов не освободился); 2) в момент t система была в состоянии хл_р а за время М перешла в состояние хп (пришла одна заявка); 3) в момент t система была в состоянии хл+1 (все каналы заняты, одна заявка стоит в очереди), а за время Д/ перешла в хп (либо освободился один канал и стоящая в очереди заявка заняла его, либо стоящая в очереди заявка ушла в связи с окончанием срока). Имеем: /?я(/+ДО«/>я(О(1-ХД<-прДО + + Рп-1 (0 + Рп+1 (0 («1А + *) д откуда щр. = _ (X П[1) рп (t) 4- Xp„_j (0 4- (П|Л 4- м) рл+1 (0. Вычислим теперь рл+5(/-|-Д/) при любом $>0 — вероятность того, что в момент /-4-Д/ все п каналов будут заняты и ровно 5 заявок будут стоять в очереди. Это событие снова может осуще- ствиться тремя способами: 1) в момент t система уже была в состоянии хл+5, а за время Д£ это состояние не изменилось (значит, ни одна заявка не пришла, ни один канал не освободился и ни одна из 5 стоящих в очереди заявок не ушла); 2) в момент t система была в состоянии л:л+5-1, а за время Д/ перешла в состояние xn+s (т. е. пришла одна заявка); 3) в момент t система была в состоянии хл±5+1, а за время Д£ перешла в состояние xn+s (для этого либо один из каналов должен освободиться, и тогда одна из стоящих в очереди заявок зай- мет его, либо одна из стоящих в очереди заявок должна уйти в связи с окончанием срока). Следовательно: Pn+stt + M) ~РЛ+4(0(1 — W — ИрД/ — 5УД04- 4- pn+s-1 (0 х д/ -4- P„+S+1 (0 [яр. 4- ($ 4-1) 4 д/, откуда = — (А 4- й|* 4- sv) Рп +s (0 4- 4- (/) 4- 4-(« -Н) 4 Рл+4+1 (О-
552 . ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 Таким образом, мы получили для вероятностей состояний систему бесконечного числа дифференциальных уравнений: -^-=-Хро(О4-НР1(О. = Хр0 (0 - (к + й) Pi (0 + 2№ (О, = *pk-i (0 - (X 4- рк (О4-(k +1) vpk+i (О —1), • . • • • dP^p- = ЬрП-1 (О — (X + Пр.) Рп (О + (Ир4~Я p„+l (t), = *Pn+t-i (0 - (X 4- пр + sv) pn+s (о + 4- [пр -ь (S +1) я ря+5+1 (0. (19.10.1) Уравнения (19.10.1) являются естественным обобщением уравнений Эрланга на случай системы смешанного типа с ограниченным време- нем ожидания. Параметры X, р., v в этих уравнениях могут быть как постоянными, так и переменными. При интегрировании системы(19.10.1) нужно учитывать, что хотя теоретически число возможных состояний системы бесконечно, но на практике вероятности pn+s(t) при возра- стании s становятся пренебрежимо малыми, и соответствующие урав- нения могут.быть отброшены. Выведем формулы, аналогичные формулам Эрланга, для вероятно- стей состояний системы при установившемся режиме обслуживания (при >оо). Из уравнений (19.10.1), полагая все рк (к — 0, .... и.) постоянными, а все производные—равными нулю, получим систему алгебраических уравнений: — Xpo + lx/’i = o> Хр0 — (X 4- и) Pl 4- 2м>2 = 0. Ьрк -1 — (X 4- *и) рк 4- (* 4-1) ррк+1 = 0 (1<Л<п —1). (19.10.2) ХР/,-1—(Х4- пи) />„4- («р 4- Я Pn+i = 0. Х^я+,-1—(X 4- пр. 4- «Я Р n+s 4- 4- [пр. 4- (« 4-1) Я Ря+4+1 = 0.
19.10] СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОЖИДАНИЕМ 553 К ним нужно присоединить условие: 2л=1. а=о (19.10.3) Найдем решение системы (19.10.2). Для этого применим тот же прием, которым мы пользовались в случае системы с отказами: разрешим первое уравнение относи- тельно подставим во второе, и т. д. Для любого А как и в случае системы с отказами, получим: р*=^р°- (19ло-4) Перейдем к уравнениям для А>п (А = д-|-$, s^l). Тем же спо* собом получим: _ У+>ра л!р.я(П[*4-м) ’ п ^П^Ро Рп+2 — П1 (Л(Х _|_ 2ч) • и вообще при любом s^-1 Pa+s — s л!р.я JJ (лр.mv) m=l (19.10.5) В обе формулы (19.10.4) и (19.10.5) в качестве сомножителя входит вероятность р0. Определим ее из условия (19.10.3). Под- ставляя в него выражения (19.10.4) и (19.10.5) для А^л и $^1? получим: Ро л со yi X* , yi 2л kip* ’ 2j * £=° $=i п\рп JJ (пр 4» ту) m = l откуда ______ 1 Pq n oo yi Xй yi Xя-»-5 *=o s=i n!pn JJ (np-f-mv) m = \ (19.10.6)
554 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 Преобразуем выражения (19.10.4), (19.10.5) и (19.10.6), вводя в них вместо плотностей к и v «приведенные» плотности: — = \rnt л — р *00 — = V/ft = 0. р 'об г (19.10.7) Параметры а и р выражают соответственно среднее число заявок и среднее число уходов заявки, стоящей в очереди, приходящиеся на среднее время обслуживания одной заявки. В новых обозначениях формулы (19.10.4), (19.10.5) и (19.10.6) примут вид: ak Рк = ^\Р, (0<А<п); (19.10.8) ап —^Ро Рп+, = -г^----------- (*>!); . (19.10.9) Д(л4-т₽) 7И=1 Ро = —--------------А—----------------(19.10.10) yi ak ап yi , as 2j IT + лТ *=0 5=1 Ц(л + /пР) Подставляя (19.10.10) в (19.10.8) и (19.10.9), получим оконча- тельные выражения для вероятностей состояний системы: aft рк=—----------------£--------------- (0<Л<п); (19.10.11) VT aft ап yi as 2^TT+*ЙТ *=о. 3=1 IT т = 1 ап as П («+«₽) ря+5 = -------------=4--------------- («>!)• (19.10.12) 5S aft ( ап yi • as Zi TT + 'zzT2j~4 . Л=о 5=1 JJ(n-j-/nP)
19.10] СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОЖИДАНИЕМ 555 Зная вероятности всех состояний системы, можно легко опреде- лить другие интересующие нас характеристики, в частности, вероят- ность Рн того, что заявка покинет систему необслуженной. Опреде- лим ее из следующих соображений: при установившемся режиме вероятность Рн того, что заявка покинет систему необслуженной, есть не что иное, как отношение среднего числа заявок, уходя- щих из очереди в единицу времени, к среднему числу заявок, по- ступающих в единицу времени. Найдем среднее число заявок; уходящих из очереди в единицу времени. Для этого сначала вычи- слим математическое ожидание ms числа заявок, находящихся в очереди: оо ап sas ИГ 2d * оо *=1 ms = М [$] = spn+s = —-----------. (19.10.13) $si Va* j_artV aS 2dkt±ni2d * «=1 JJ (л 4- т$) 1 Чтобы получить Рн, нужно ms умножить на среднюю «плотность уходов» одной заявки v и разделить на среднюю плотность заявок К, т. е. умножить на коэффициент X X a \ И Получим: 00 , ап VV sa* nt 2d~?~ ‘ ,=i п ("+Н) Рн= |. (19.10.14) yi , в” у1 aS 21ТГ+~пГ 2d~n *=о «=1 Д(л4-/И0) гп=1 Относительная пропускная способность системы характеризуется вероятностью того, что заявка, попавшая в систему» будет обслужена: ?==1-рв. Очевидно, что пропускная способность системы с ожиданием, при тех же к и р., будет всегда выше, . чем пропускная способность системы с отказами: в случае наличия ожидания необслуженными
556 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 уходят не все заявки, заставшие п каналов занятыми, а только не- которые. Пропускная способность увеличивается при увеличении 1 среднего времени ожидания т/ож = —. Непосредственное пользование формулами (19.10.11), (19.10.12) и (19. ЮЛ4) несколько затруднено тем, что в них входят бесконеч- ные суммы. Однако члены этих сумм быстро убывают J). Посмотрим, во что превратятся формулы (19.10.11) и (19.10.12) при р-->оо и р->0. Очевидно, что при >оо система с ожида- нием должна превратиться в систему с отказами (заявка мгновенно уходит из очереди).. Действительно, при Р~>оо формулы (19.10.12) дадут нули, а формулы (19.10.11) превратятся в формулы Эрланга для системы с отказами. Рассмотрим другой крайний случай: чистую систему с ожиданием (Р~>0). В такой системе заявки вообще не уходят из очереди, и поэтому Рн = 0: каждая заявка рано или поздно дождется обслужи- вания. Зато в чистой системе с ожиданием не всегда имеется пре- дельный стационарный режим при /-►оо. Можно доказать, что такой режим существует только при а < л, т. е. когда среднее число заявок, приходящееся на время обслуживания одной заявки, не выходит за пределы возможностей л-канальной системы. Если же а^л, число заявок, стоящих в очереди, будет с течением времени неограниченно возрастать. Предположим, что а < л, и найдем предельные вероятности pk (0 С k п) для чистой системы с ожиданием. Для этого положим в формулах (19.9.10), (19.9.11) и (19.9.12) ^—>0. Получим: Ро = или, суммируя прогрессию Ро = у а* * а” у а* jfe=0 5=1 (что возможно только при а < л), —---------1----------(19.10.15) у ak ая+1 л! (л —а) А=0 *) Для грубой оценки ошибки, происходящей от отбрасывания всех чле- нов сумм, начиная с r-го, можно воспользоваться формулами: а5 П («+«₽) т=1 saS < Ун л * < (г—1)! П (л+'п?) т-1
19 11] СИСТЕМА СМЕШАННОГО ТИПА 557 Отсюда, пользуясь формулами (19.10.8) и (19.10.9), найдем а» kl Р к п дЛ-Н л! (п— а) (19.10.16) 1 и аналогично для k — n-\~s _______________п\ ns Рп i s п аи+1 п! (п — а) (19.10.17) й = 0 Среднее число заявок, находящихся в очереди, определяется из фор- мулы (19.10.13) при р->0: ал+1 п-п\ (19.10.18) tns — —7 • п V ап+1 + л! (л—а) с ч Л=0 Пример 1. На вход трехканальной системы с неограниченным време- нем ожидания поступает простейший поток заявок с плотностью л = 4 (заявки в час). Среднее время обслуживания одной заявки /п/об = 30 мин. Определить, существует ли установившийся режим обслуживания; если да, то найти вероятности р0, plt р2, p3t вероятность наличия .очереди и среднюю длину очереди ms. Решение. Имеем р- = —— = 2; а = А » 2. Так как а < л, установив- шийся режим существует. По формуле (19.10.16) находим Ро = |« 0.111; Р1 = | «0.222; Л = |« 0.222; Рз=Д Вероятность наличия очереди: Л>ч = 1 — (Ро + Pi + Рг + Рз) == 0,297. Средняя длина очереди по формуле (19.10.18) будет tns а 0,89 (заявки). 0,148. 19.11. Система смешанного типа с ограничением по длине очереди В предыдущем п° мы рассмотрели систему массового обслужива- ния с ограничением по времени пребывания в очереди. Здесь мы рассмотрим систему смешанного типа с другим видом ограничения ожидания — по числу заявок, стоящих в очереди. Предположим, что
658 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ !9 заявка, заставшая все каналы занятыми, становится в очередь, только если в ней находится менее т заявок; если же число заявок в оче- реди равно т (больше т оно быть не может), то последняя при- бывшая заявка в. очередь не становится и покидает систему необ- служенной. Остальные допущения — о простейшем потоке заявок и о показательном распределении времени обслуживания — оставим прежними. Итак, имеется /z-канальная система с ожиданием, в которой коли- чество заявок, стоящих в очереди, ограничено числом т. Составим дифференциальные уравнения для вероятностей состояний системы. Заметим, что в данном случае число состояний системы будет конечно, так как общее число заявок, связанных с системой, не может превышать fi-j-tn (п обслуживаемых и т стоящих в очереди). Перечислим состояния системы: — все каналы свободны, очереди нет, х} — занят один канал, » » , • • . • • х* —занято k каналов, » » , хп_{—занято п—1 каналов, » » , хп — заняты все п каналов, » » , хп^х—заняты все п каналов, одна заявка стоит в очереди, хп+т—заняты все п каналов, т заявок стоит в очереди. Очевидно, первые п уравнений для вероятностей р0(/)» • • • Pn-i (О будут совпадать с уравнениями Эрланга (19.8.8). Выведем остальные уравнения. Имеем рп (t + АС — Рп-1 (О х А/ 4- рп (!) (1 — X Д/ — лр. ДО + рл+1 (О лр. ДО откуда =хР„_1 (о - а+«и) рп (о + wi (0. Далее выведем уравнение для pn+s(t) (1^«<Л1) = Pn+,-itf)XA< + Рд+1(0(1 — ХД/ —лрД/) + рп+1+1(ОпрДО = 'ЬРп+ь-х (С - (X + «И) pa+s (t) 4- п?ра <.4+1 (/). Последнее уравнение будет — <0 - «НА.+т (0.
J9.H1 СИСТЕМА СМЕШАННОГО ТИПА 559 Таким образом, получена система дифференциальных уравнений: • j/-—= ~Ш0+ра(0. - - Р*4Г~=ЬРь-1 (0 - а + М Рк (0 4- -Н*+1)РРа+1(0 (О<А<П—1), = ьрп-! (о - а+«и) Рп (о+«рря+1 (о. = \Ра+г-х (0 - (X+«р) Ря+, (0 4- + «РРя+,+1 (0 (1 < S < = 1ря+т-г ~ (0. (19.11.1) Рассмотрим предельный случай при Приравнивая все про- изводные нулю, а все вероятности считая постоянными, получим си-: стему алгебраических уравнений — Xpo + PPi = O. Xp*-i—(Х+р, 4-(* +1) м>*+1 == о (0<6</i —1), ЬРп-1 — (х4- пр) Рп 4- прря+1 = 0. ХРя+s-l — (X 4- «и) Pn+s + ПрРя+,+1 = о (1 С $ < т), ^Рп+т-1—П1>-Ра+т = 0 и добавочное условие: л+т 2 р* = 1- Л = 0 (19.11.2) (19.11.3) Уравнения (19.11.2) могут быть решены так же, как мы решили аналогичные алгебраические уравнения в предыдущих п°п°. Не оста-
560 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 навливаясь на этом решении, приведем только окончательные формулы: а* Р,=~.-------------------- (0<4<n). (19.11.4) Л=0 s= 1 ап I а у Pn+S = -------(19.11.5) V а* । aZ* у (<* у nl 2Д/Г/ fe=0 5=1 Вероятность того, что заявка покинет систему необслуженной, равна вероятности рп+т того, что в очереди уже стоят т заявок. Нетрудно заметить, что формулы (19.1 Г.4) и (19.11.5) получаются из формул (19.10.11), (19.10.12), если положить в них {3 = 0 и огра- ничить суммирование по s верхней границей т. Пример. На станцию текущего ремонта автомашин поступает простей- ший поток заявок с плотностью К = 0,5 (машины в час). Имеется одно поме- щение для ремонта. Во дворе станции могут одновременно находиться, ожи- дая очереди, не более трех машин. Среднее время ремонта одной машины /и/об = А -в 2 (часа). Определить: а) пропускную способность системы; б) среднее время простоя станции; в) определить, насколько изменятся эти характеристики, если оборудовать второе помещение для ремонта. Решение. Имеем: л = 0,5; р. = 0,5; а = 1; т = 3. а) По формуле (19.11.5), полагая л»1, находим вероятность того, что пришедшая заявка покинет систему необслуженной: п - 1 2 0,20. н = Р\+з Относительная пропускная способность системы q ® 1 — Рн = 0,80. Абсолют- ная пропускная способность: Q = \q = 0,4 (машины в час). б) Средняя доля времени, которое система будет простаивать, найдем по формуле (19.11.4): ро = -^- = О,2О. о в) Полагая и = 2, найдем: Л1 — Р2 + 3 — 1 -=—Ц—=—=- = 4г «°’02’- 1 + 1 + 1 + _L 47 2 4 Т 8 16 q = 1 — Рн ~ 0,979 (т. е. удовлетворяться будет около 98% всех заявок). Q == \q « 0,49 (машины в час). Относительное время простоя: р0 = « 0,34, т. е. оборудование будет простаивать полностью около 34% всего времени.
ПРИЛОЖЕНИЕ Таблица 1 Значения нормальной функции распределения: Ф* (х) 1 dt X Ф* (X) д X Ф*(ж) д X Ф*(х) д -0,00 0,5000 40 —0,30 0,3821 38 —0,60 . 0,2743 34 -0,01 4960 40 —0,31 3783 38 —0,61 2709 33 -0,02 4920 • 40 —0,32 3745 38 —0,62 2676 33 -0,03 4880 40 -0,33 3707 38 —0,63 2643 32 —0,04 4840 39 —0,34 3669 37 —0,64 2611 33 -0,05 4801 40 —0,35 3632 38 —0,65 .2578 32 -0,06 - 4761 40 —0,36 3594 37 —0,66 2546 32 —0,07 4721 40 —0,37 3557 37 —0,67 2514 31 -0,08 4681 40 —0,38 3520 37 —0,68 2483 32 -0,09 4641 39 —0,39 3483 37 —0,69 2451 31 -0,10 0,4602 40 —0,40 0,3446 37 -0,70 0,2420 31 —.0,11 4562 40 -0,41 3409 . 37 —0,71 2389 31 —0,12 4522 39 —0,42 3372 36 —0,72 2358 31 -0,13 4483 40 —0,43 3336 36 —0,73 2327 30 —0,14 4443 39 —0,44 3300 36 —0,74 2297 31 -0,15 4404 40 —0,45 3264 36 —0,75 2266 30 —0,16 4364 39 —0,46 3228 36 —0,76 2236 30 —0,17 4325 39 —0,47 3192 36 —0,77 2206 29 -0,18 4286 39 —0,48 3156 35 -0,78 2177 29 -0,19 4247 40 —0,49 3121 36. —0,79 2148 29 —0,20 0,4207 39 -0,50 0,3085 35 —0,80 0,2119 29 -0,21 4168 39 —0,51 3050 35 . —0,81 2090 29 —0,22 4129 39 —0,52 3015 34 —0,82. 2061 28 -0,23 4090 38 —0,53 2981 35 —0,83 2033 28 -0,24 4052 39 1—0,54 2946 34 —0,84 2005 28 -0,25 4013 39 —0,55 . 2912 35 —0,85 1977 28 -0,26 3974 38 —0,56 2877 34 -0,86 1949 27 • -0,27 3936 39 —0,57 2843 33 —0,87 1922 28 -0,28 3897 38 —0,58 2810 34 -0,88 1894 27 -0,29 3859 38 —0,59 2776 33 —0,89 1867 26
662 ПРИЛОЖЕНИЕ Продолжение табл. 1 X Ф*(х) г А X • ф* (X) А X Ф*(Х) А -0,90 0,1841 27 —1,30 0,0968 17 —1,70 0,0446 10 —0,91 1814 26 р—1,31 0951 17 —1,71 0436 9 —0,92 1788 26 . —1,32 0934 16 —1,72 0427 9 -0,93 1762 26 —1,33 0918 17 —1,73 0418 9 —0,94 1736 25 —1,34 0901 16 —1,74 0409 8 -0,95 1711 26 —1.35 0885 16 —1,75 0401 9 —0,96 1685 25 —1,36 0869 16 —1,76 0392 8 —0,97 1660 25 —1,37 0853 15 —1,77 0384 9 -0,98 1635 24 —1,38 0838 15 —1,78 0375 8 —0,99 1611 24 -1,39 0823 15 —1,79 0367 8 -1,00 0,1587 24 —1,40 0,0808 15 —1,80 0,0359 8 —1,01 1563 24 -1,41 0793 15 —1,81 0351 7 -1,02 1539 24 —1,42 0778 14 —1,82 0344 8 —1,03 1515 23 —1,43 0764 15 —1,83 0336 7 —1,04 1492 23 —1,44 0749 14 —1,84 0329 7 —1,05 1469 23 —1,45 0735 14 —1,85 0322 8 —1,06 1446 23 —1,46 0721 13 —1,86 0314 7 —1,07 1423 22 —1,47 0708 14 —1,87 0307 6 - 1Д)8 1401 22 —1,48 0694 13 —1,88 0301 7 —1,09 1379 22 —1,49 0681 13 —1,89 0294 6 -1,10 0,1357 22 —1,50 0,0668 13 —1,90 0,0288 7 —1,11 1335 21 —1,51 0655 12 —1,91 0281 7 -1,12 1314 22 —1,52 0643 13 —1,92 0274 6 -1,13 1292 21 —1,53 0630 12 —1,93 0268 6 -1,14 1271 20 —1,54 0618 12 —1,94 0262 6 -1,15 1251 21 —1,55 0606 12 —1,95 0256 6 —1,16 1230 20 —1,56 0594 12 —1,96 0250 6 —1Д7 1210 20 -1,57 0582 11 —1,97 0244 5 -1,18 1190 20 —1,58 0571 12 —1,98 0239 6 -1,19 1170 19 —1,59 0559 11 —1,99 0233 5 —1,20 0,1151 20 —1,60 0,0548 11 —2,00 0,0228 49 —1,21 1131 19 —1,61 0537 11 —2,10 0179 40 -1,22 1112 19 —1,62 0526 10 —2,20 0139 32 —1,23 1093 18 —1,63 0516 11 —2,30 0107 25 -1,24 1075 19 —1,64 0505 10 —2,40 0082 20 -1,25 1056 18 —1,65 0495 10 —2,50 0062 15 —1,26 1038 18 —1,66 0485 10 —2,60 0047 12 —1,27 1020 17 —1,67 0475 10 —2,70 0035 9 —1,28 1003 18 —1,68 0465 10 —2,80 0026 7 -1,29 0985 17 <-1,69 0455 9 —2,90 0019 5
ПРИЛОЖЕНИЕ 563 Продолжение табл. 1 X Ф* (лг) д X Ф* (X) д X Ф* (X) А -3,00 0,0014 4 0,30 0,6179 38 0,70 0,7580 31 -3,10 0010 3 0,31 6247 38 0,71 7611 31 —3,20 0007 2 0,32 6255 38 0,72 7642 31 -3,30 0005 2 0,33 6293 38 0,73 7673 30 —3,40 0003 1 0,34 6331 37 0,74 7703 31 -3,50 0002 0 0,35 6368 38 0,75 7734 30 -3,60 0002 1 0,36 6406 37 0,76 7764 30 -3,70- 0001 0 0,37 6443 37 0,77 7794 29 -3,80 0001 1 0,38 6480 37 0,78 7823 29 -3,90 0000 0,39 6517 37 0,79 7852 29 0,00 0,5000 40 0,40 0,6554 37 0,80 0,7881 29 0,01 5040 40 0,41 6591 37 0,81 7910 29 0,02 5080 40 0,42 6628 36 0,82 7939 28 0,03 5120 40 0,43 6664 36 0,83 • 7967 28 0,04 5160 39 0,44 6700 36 0,84 7995 28 0,05 5199 40 0,45 6736 36 0,85 8023 28 0,06 5239 40 0,46 6772 36 0,86 8051 27 0,07 5279 40 0,47 6808 36 0,87 8078 28 0,08 5319 40 0,48 6844 35 0,88 8106 27 0,09 5359 39 0,49 6879 36 0,89 8133Г 26 0,10 0,5398 40 0,50 0,6915 35 0,90 0,8159 27 0,11 5438 40 0,51 6950 35 0,91 8186 26 0,12 5478 39 0,52 6985 34 0,92 • 8212 26 0,13 5517 40 0,53 7019 35 0,93 8238 26 0,14 5557 39 0,54 7054 34 0,94 8264 25 0,15 5596 40 0,55 7088 35 0,95 8289 26 0,16 5636 39 0,56 7123 34 0,96 8315 25 0,17 5675 39 0,57 7157 33 0,97 8340 25 0,18 5714 39 0,58 7190 34 , 0,98 8365 24 0,19 5753 40 0,59 7224 33 0,99 8389 24 0,20 0,5793 39 0,60 0,7257 34 1,00 0,8413 24 0,21 5832 39 0,61 7291 33 1,01 8437 24 0,22 5871 39 0,62 7324 33 1,02 8461 24 0,23 5910 38 0,63 7357 32 1,03 8485 23 0,24 5948 39 0,64 7389 33 1,04 8508 23 0,25 5987 39 0,65 7422 32 1,05 8531 23 0,26 6026 38 0,66 7454 32 1,06 8554 23 0,27 6064 39 0,67 7486 31 1,07 8577 22 0,28 6103 38 0,68 7517 32 1,08 8599 22 0,29 6141 38 0,69 7549 31 1,09 • 8621 22
564 ПРИЛОЖЕНИЕ Продолжение табл 1 X Ф* (X) А X Ф* tJT) А X ф* <х, А 1,10 0,8643 22 1,50 0,9332 13 1,90 0,9713 6 1,11 8665 21 9345 12 1,91 9719 1,12 8686 22 1,52 9357 13 / 1,13 ' 8708 21 1,53 9370 12 1,92 9726 6 1,14 8729 20 1,54 9382 12 1,93 9732 1,15 8749 21 1,55 9394 12 О 1,16 8770 20 1,56 9406 12 1,94 9738 6 1,17 8790 • 20 1,57 9418 11 1,95 СУ7ЛЛ 1,18 8810 20 1,58 9429 12 О 1,19 8830 19 1,59 9441 11 1,96 9750 6 1,97 9756 5 1,20 0,8849 20 1,60 0,9452 11 1,98 9761 6 1,21 8869 19 1,61 9463 11 1,99 9767 е 1,22 8888 19 1,62 9474 10 О 1,23 8907 18 1,63 9484 11 2,00 0,9772 Ь24 8925 19 1,64 9495 10 49 1,25 8944 18 1,65 9505 10 2,10 9821 40 1,26 8962 18 1,66 9515 10 32 1,27 8980 17 1,67 9525 10 2,20 9861 1,28 8997 18 1,68 9535 10 2,30 9893 25 1,29 9015 17 1,69 9545 9 2,40 9918 20 . 1,70 0,9554 10 2,50 9938 15 1,30 0,9032 17 1,31 9049 17 1,71 9564 9 2,60 9953 12 1,32 9066 16 1,72 9573 9 2,70 9965 9 1,33 9082 17 1,73 9582 9 9974 1,34 9099 16 1,74 9591 8 2,80 7 1,35 9115 16 1,75 9599 9 2,90 9981 5 1,36 9131 16 1,76 9608 8 1,37 1,38 9147 9162 15 15 1,77 1,78 9616 9625 9 8 3,00 0,9986 4 1,39 9177 15 1,79 9633 8 3,10 9990 3 3,20 9993 2 1,40 0,9192 15 1,80 0,9641 8 з,зо 9995 2 1,41 9207 15 1,81 9649 7 3,40 9997 1 1,42 9222 14 1,82 9656 8 1,43 9236 15 1,83 9664 7 3,50 9998 0 1,44 9251 14 1,84 9671 7 3,60 9998 1 1,45 9265 14 1,85 9678 8 1,46 9279 13 1,86 9686 7 3,70 9999 0 1,47 9292 14 1,87 9693 6 3,80 9999 1 1,48 9306 13 1,88 9699 7 1,49 9319 13 1,89 9706 7 3,90 1,0000
ПРИЛОЖЕНИЕ 565 Таблица 2 Значения функции е~х X е~х А х д X е~х А । j е~х д 0,00 1.000 10 0.40 0,670 7 0,80 0,449 4 3,00 0,050 5 0.01 0,990 10 0,41 0,664 7 0,81 0,445 5 3,10 0,045 4 02 980 10 42 657 7 82 440 4 3,20 41 4 03 970 9 43 650 6 83 436 4 3,30 37 4 04 961 10 44 644 6 84 432 5 3,40 33 3 05 951 9 45 638 7 85 427 4 3,50 30 3 06 942 10 46 631 6 86 423 4 3,60 27 2 07 932 9 47 625 6 87 419 4 3,70 25 3 08 923 9 48 619 6 88 415 4 3,80 22 2 09 914 9 49 613 7 89- 411 4 3,90 20 2 0,10 0,905 9 0,50 0,606 6 0,90 0,407 4 4,00 0,0183 17 11 896 9 51 600 5 91 403 4 4,10 166 16 12 887 9 52 595 6 92 399 4 4,20 150 14 13 878 9 53 589 6 93 395 4 4,30 136 13 14 869 8 54 583 6 94 391 4 4,40 123 12 15 861 9 55 577 6 95 387 4 4,50 111 10 16 852 8 ~ 56 571 6 96 383 4 4,60 101 10 17 844 9 57 565 5 97 379. 4 4,70 0,0091 9 18 835 8 58 560 6 98 375 3 4,80 82 8 19 827 8 59 554 5 99 372 4 4,90 74 7 0,20 0,819 8 0,60 0,549 6 1,00 0,368 35 5,00 0,0067 6 21 811 8 61 543 5 1,10 333 31 5,10 61 6 22 803 8 62 538 5 1,20 302 29 5,20 55 5 23 795 8 63 533 6 1,30 273 26 5,30 50 5 24 787 8 64 527 5 1,40 247 24 5,40 45 4 25 779 8 65 522 5 1,50 223 21 5,50 41 4 26 771 8 66 517 5 1,60 202 19 5,60 37 4 27 763 7 67 512 5 1,70 183 18 5,70 33 3 28 756 8 68 507 5 1,80 . 165 15 5,80 30 3 29 748 7 69 502 5 1,90 150 15 5,90 27 2 0,30 0,741 8 0,70 0,497 5 2,00 0,135 13 ‘6,00 0,0025 3 31 733 7 71 492 5 2,10 122 11 6,10 22 2 32 726 7 72 487 5 2,20 111 11 6,20 20 2 33 719 7 73 482 5 2,30 100 9 6,30 18 1 34 712 7 74 477 5 2,40 0,091 9 6,40 17 2 35 705 7 75 472 4 2,50 82 8 6,50 15 1 36 698 7 76 468 5 2,60 74 7 6,60 14 2 37 691 7 77 463 5 2,70 67 6 6,70 12 1 38 684 7 78 458 4 .2,80 61 6 6,80 11 1 39 677 7 79 454 5 2,90 55 5 6,90 10 1 0,40 0,670 0,80 0,449 3,00 0,050 7.00 0.0009
566 ПРИЛОЖЕНИЕ Таблица 3 Значения функции / (х) = е X и 1 2 3 4 5 6 7 8 9 X 0,0 0.3989 3989 3989 3988 3986 3984 3982 3980 3977 3973 0,0 од 3970 3965 3961 3956 3951 3945 3939 3932 3925 3918 0,1 0.2 3910 3902 3894 3885 3876 3867 3857 3847 3836 3825 0,2 0,3 3814 3802 3790 3778 3765 3752 3739 3726 3712 3697 0,3 0,4 3683 3668 3653 3637 3621 3605 3589 3572 3555 3538 0,4 0,5 3521 3503 3485 3467 3448 3429 3410 3391 3372 3352 0.5 0.6 3332 3312 3292 3271 3251 3230 3209 3187 3166 3144 0,6 0.7 3123 3101 3079 3056 3034 ЗОИ 2989 2966 2943 2920 0,7 0,8 2897 2874 2850 2827 2803 2780 2756 2732 2709 2685 0,8 0,9 2661 2637 2613 2589 2565 2541 2516 2492 2468 2444 0,9 1,0 0,2420 2396 2371 2347 2323 2299 2275 2251 2227 2203 1.0 1.1 2179 2155 2131 2107 2083 2059 2036 2012 1989 1965 1,1 1,2 1942 1919 1895 1872 1849 1826 1804 1781 1758 1736 1,2 1,3 1714 1691 1669 1647 1626 1604 1582 1561 1539 1518 1,3 1,4 1497 1476 1456 1435 1415 1394 1374 1354 1334 1315 1,4 1.5 1295 1276 1257 1238 1219 1200 1182 1163 1145 1127 1,5 1,6 1109 1092 1074 1057 1040 1023 1006 0989 0973 0957 1,6 1,7 0940 0925 0909 0893 0878 0863 0848 0833 0818 0804 1,7 1,8 0790 0775 0761 0748 0734 0721 0707 0694 0681 0669 1,8 1,9 0656 0644 0632 0620 0608 0596 0584 0573 0562 0551 1.9 2,0 0.0540 0529 0519 0508 0498 0488 0478 0468 0459 0449 2,0 2,1 0440 0431 0422 0413 0404 0396 0388 0379 0371 0363 2,1 2,2 0355 0347 0339 0332 0325 0317 0310 0303 0297 0290 2,2 2,3 0283 0277 0270 0264 0258 0252 0246 0241 0235 0229 2,3 2,4 0224 0219 0213 0208 0203 0198 0194 0189 0184 0180 2,4 2,5 0175 0171 0167 0163 0158 0154 0151 0147 0143 0139 2,5 2.6 0136 0132 0129 0126 0122 0119 0116 0113 ОНО 0107 2,6 2.7 0104 0101 0099 0096 0093 0091 0088 0086 0084 0081 2,7 2,8 0079 0077 0075 0073 0071 0069 0067 0065 0063 0061 2,8 2,9 0060 0058 0056 0055 0053 0051 0050 0048 0047 0046 2,9 3,0 0.0044 0043 0042 0040 0039 0038 0037 0636 0035 0034 3,0 3,1 0033 0032 0031 0030 0029 0028 0027 0026 0025 0025 3,1 3.2 0024 0023 0022 0022 0021 0020 0020 0019 0018 0018 3,2 3,3 0017 0017 0016 0016 0015 0015 0014 0014 0013 0013 3,3 3,4 0012 0012 0012 ООН ООП 0010 0010 0010 0009 0009 3,4 3,5 0009 0008 0008 0008 0008 0007 0007 0007 0007 0006 3,5 3,6 0006 0006 0006 0005 0005 0005 0005 0005 0005 0004 3,6 3,7 0004 0004 0004 0004 0004 0004 0003 0003 0003 0003 3,7 3,8 0003 0003 0003 0003 0003 0002 0002 0002 0002 0002 3,8 3,9 0002 0002 0002 0002 0002 0002 0002 0002 0001 0001 3,9 X и 1 2 3 4 5 6 7 8 9 X
Таблица 4 Значения у2 в зависимости от г и р ^Х р г ^х. Х^ 0,99 0,98 0,95 0,90 0,80 0,70 0,50 0,30 0,20 0,10 0,05 0,02 0,01 0,001 1 I 0,000 0,001 0,004 0,016 0,064 0,148 0,455 1,074 1,642 2,71 3,84 5,41 6,64 10,83 2 0,020 0,040 0,103 0,211 0,446 0,713 1,386 2,41 3,22 4,60 5,99 7,82 9,21 13,82 3 0,115 0,185 0,352 0,584 1,005 1,424 2,37 3,66 4,64 6,25 7,82 9,84 11,34 16,27 4 0,297 0,429 0,711 1,064 1,649 2,20 3,36 4,88 5,99 7,78 9,49 11,67 13,28 18,46 5 0,554 0,752 1,145 1,610 2,34 3,00 4,35 6,06 7,29 9,24 11,07 13,39 15,09 20,5 6 0,872 1,134 1,635 2,20 3,07 3,83 5,35 7,23 8,56 10,64. 12,59 15,03 16.81 22,5 7 1,239 1,564 2,17 2,83 3,82 4,67 6,35 838 9,80 12,02 14,07 16,62 18,48 24,3 8 1,646 2,03 2,73 3,49 4,59 5,53 7,34 9,52 11,03 13,36 15,51 18,17 20,1 26,1 9 2,09 2,53 3,32 4,17 5,38 6,39 8,34 10,66 12,24 14,68 16,92 19,68 21,7 27,9 10 2,56 3,06 3,94 4,86 6,18 7,27 9,34 11,78 13,44 15,99 18,31 21,2 23,2 29,6 и 3,05 3,61 4,58 5,58 6,99 8,15 10,34 12,90 14,63 17,28 19,68 22,6 24,7 31,3 12 3,57 4,18 5,23 6,30 7,81 9,03 11,34 14,01 15,81 18,55 21,0 24,1 26,2 32,9 13 4,11 4,76 5,89 7,04 8,63 9,93 12,34 15,12 16,98 19,81 22,4 25,5 27,7 34,6 14 4,66 5,37 6,57 7,79 9,47 10,82 1334 16,22 18,15 21,1 23,7 26,9 29,1 36,1 15 5,23 5,98 7,26 8,55 10,31 11,72 14’34 17,32 19,31 22,3 25,0 28,3 30,6 37,7 16 5,81 6,61 7,96 9,31 11,15 12,62 15'> 18,42 20,5 23,5 26,3 29,6 32,0 39,3 17 6,41 7,26 8,67 10,08 12,00 . 13,53 1634 19,51 21,6 24,8 27,6 31,0 33,4 40,8 18 7,02 7,91 9,39 10,86 12,86 14,44 17’34 20,6 22,8 26,0 28,9 32,3 34,8 42,3 19 7,63 8,57 10,11 11,65 13,72 15,35 18 34 21,7 23,9 27,2 30,1 33,7 36,2 43,8 20 8,26 9,24 10,85 12,44 14,58 16,27 19^34 22,8 25,0 28,4 31,4 35,0 37,6 45,3 21 8,90 9,92 11,59 13,24 15,44 17,18 20,3 23,9 26,2 29,6 32,7 36,3 38,9 46,8 22 9,54 10,60 12,34 14,04 16,31 18,10 21,3 24,9 27,3 30,8 33,9 37,7 40,3 48,3 23 10,20 11,29 13,09 14,85 17,19 19,02 22,3 26,0 28,4 32,0 35,2 39,0 41,6 49,7 24 10,86 11,99 13,85 15,66 18,06 19,94 23,3 27,1 29,6 33,2 36,4 40,3 43,0 51,2 25 11,52 12,70 14,61 16,47 18,94 20,9 24,3 28,2 30,7 34,4 37,7 41,7 44,3 52,6 26 12,20 13,41 15,38 17,29 19,82 21,8 25,3 29,2 31,8 35,6 38,9 42,9 45,6 54,1 27 12,88 14,12 16,15 18,11 20,7 22,7 26,3 30,3 32,9 36,7 40,1 44,1 47,0 55,5 28 13,56 14,85 16,93 18,94 21,6 23,6 27,3 31,4 34,0 37,9 413 45,4 48,3 56,9 29 14,26 15,57 17,71 19,77 22,5 24,6 28,3 32,5 35,1 39,1 42,6 46,7 49,6 58,3 30 14,95 16,31 18,49 20,6 23,4 25,5 29,3 33,5 36,2 40,3 43,8 48,0 50,9 59,7 ПРИЛОЖЕНИЕ
'568 ПРИЛОЖЕНИЕ Значения i^t удовлетворяющие равенству 0 л —1 0,1 0,2 0,3 0,4 0,5 0,6 1 0,158 0,325 0Д10 0,727 1,000 1,376 1,963 2 142 289 445 617 0,816 1,061 1,336 3 137 277 424 584 765 0,978 1,250 4 134 271 414 569 741 941 1,190 5 132 267 408 559 727 920 1,156 6 131 265 404 553 718 906 1,134 7 130 263 402 549 711 896 1,119 8 130 262 399 546 706 889 1,108 9 129 261 398 543 703 883 1,100 10 129 260 397 542 700 879 1,093 11 129 260 396 540 697 876 1,088 12 128 259 395 539 695 873 1,083 13 128 259 394 538 694 870 1,079 14 128 258 393 537 692 868 1,076 15 128 258 393 536 691 866 1,074 16 128 258 392 535 690 865 1,071 17 128 257 392 534 689 863 1,069 18 127 257 392 534 688 862 1,067 19 127 257 391 533 688 861 1,066 20 127 257 391 533 687 860 1,064 21 127 257 391 532 686 859 1,063 22 127 256 390 532 686 858 1,061 23 127 256 390 532 685 858 1,060 24 127 256 390 531 685 857 1,059 25 127 . 256 390 531 *684 856 1,058 26 127 256 390 531 684 856 1,058 27 127 256 389 531 684 855 1,057 28 127 256 389 530 683 855 1,056 29 127 256 389 530 683 854 1,055 30 127 . 256 389 530 683 854 1,055 40 126 255 388 529 681 851 1,050 60 126 254 387 527 679 848 1,046 120 126 254 386 526 677 845 1,041 оо 0,126 0,253 0,385 0,524 0,674 0,842 1,036 Л —1 0 од 0,2 0,3 0,4 0,5 0,6 0,7
ПРИЛОЖЕНИЕ 569 Таблица 5 •Sfl-i (0 dt = ?, в зависимости от р и п — 1 0,8 0,9 0,95 0,98 0,99 0,999 I 3,03 6,31 12,71 31,8 63,7 636,6 1 1,886 2,92 4,30 6,96 9,92 31,6 2 1,638 2,35 3,18 4,54 5,84 12,94 3 1,533 2,13 2,77 3,75 4,60 8,61 4 1,476 2,02 2,57 3,36 4,03 6,86 5 1,440 1,943 2,45 3,14 3,71 5,96 6 1,415 1,895 2,36 3,00 3,50 5,40 7 1,397 1,860 2,31 2,90 3,36 5,04 8 1,383 1.833 2,26 2,82 3,25 4,78 9 1,372 1,812 . 2,23 ’ 2,76 • 3,17 4,59 10 1,363 1,796 2,20 2,72 3,11 4,49 11 1,356 1,782 2,18 2,68 3,06 4,32 12 1,350 1,771 2,16 2,65 3,01 4,22 13 1,345 1,761 2,14 2,62 2,98 4,14 14 1,341 1,753 2,13 2,60 2,95 4,07 15 1,337 1,746 2,12 2,58 2,92 4,02 16 1,333 1,740 2,11 2,57 2,90 3,96 17 1,330 1,734 2,10 2,55 2,88 3,92 . 18 1,328 1,729 2,09 2,54 2,86 3,88 19 1,325 1,725 2,09 2,53 2,84 3,85 20 1,323 1,721 2,08 2,52 2,83 3,82 21 1,321 1,717 2,07 2,51 2,82 3,79 22 1,319 1.714 2,07 2,50 2,81 3,77 23 1,318 Г,711 2,06 2,49 2,80 3,74 24 1,316 1,708 2,06 2,48 2,79 3,72 25 1,315 1,706 2,06 2,48 2,78 3,71 26 1,314 1,703 2,05 2,47 2,77 3,69 27 1,313 1,701 2,05 2,47 2,76 3,67 28 1,311 1,699 2,04 2,46 2,76 3,66 29 1,310 1,697 2,04 2,46 2,75 3,65 30 1,303 1,684 2,02 2,42 2,70 3,55 40 1,296 1,671 2,00 2,39 2,66 3,46 60 1,289 1,658 1,980 2,36 2,62 3,37 120 1,282 1,645 1,960 2,33 2,58 3,29 оо Я — 1 0,8 0,9 0,95 0,98 0,99 0,999 3
570 ПРИЛОЖЕНИЕ Таблица 6 Таблица двоичных логарифмов целых чисел от 1 до 100 X log ж X log X х Jog X 1 0,00000 36 5,16993- 71 6,14975 2 1,00000 37 5,20945 72 6,16992 3 1,58496 38 5,24793 73 6,18982 4 2,00000. 39 5,28540 74 6,20945 5 2,32193 40 5,32193 75 6,22882. 6 2,58496 41 5,35755 * 7 2,80735 42 5,39232 76 6,24793 8 3,00000 43 5,42626 77 6,26679 9 3,16993 44 5,45943 78 6,28540 10 3,32193 45 5,49185 79 6,30378 11 3,45943 46 5,52356 80 6,32193 12 3,58496 47 5,55459 13 3,70044 48 5,58496 81 6,33985 14 3,80735 49 5,61471 82 6,35755 15 3,90689 50 5,64386 83 6,37504 16 4,00000 51 5,67242 84 6,392^2 17 4,08746 52 5,70044 85 6,40939 18 4,16993 53 5,72792 19 4,24793 54 5,75489 86 6,42626 20 4,32193 55 5,78136 87 6,44294 21 4,39232 л 56 5,80735 88 6,45943 22 4,45943 57 5,83289 89 6,47573 23 4,52356 58 5,85798 90 6,49185 24 4,58496 59 5,88264 25 4,64386 60 5,90689 91 6,50779 92 6,52356 26 4,70044 61 5,93074 93 6 53916 27 4,75489 62 5,95420 94 6 55459 28 4,80735 63 5,97728 95 6 56986 29 4,85798 64 6,00000 54/ 30 4,90689 65 6,02237 96 6,58496 31 4,95420 66 6,04439 97 6,59991 32 5,00000 67 6,06609 98 6,61471 33 5,04439 68 6,08746 99 6,62936 34 5,08746 69 6,10852 100 6,64386 35 5,12928 70 6,12928
ПРИЛОЖЕНИЕ 571 Таблица значений функции Таблица 7 ч(р) = — /’logjP р 1(р) 4 1 1 р 1 1 I (Р) А 0 0 664 0,50 0,5000 _ 45 0,01 0,0664 464 0,51 4954 —48 0,02 1128 390 0,52 4906 —52 0,03 1518 340 0,53 4854 —54 0,04 1858 303 0,54 4800 —56 0,05 2161 274 0,55 4744 —59 0,06 2435 251 0,56 4685 —62 0,07 2686 229 0,57 4623 —65 0,08 2915 211 0,58 4558 —67 0,09 3126 196 0,59 4491 —69 0,10 3322 181 0,60 4422 —72 0,11 3503 168 0,61 4350 —74 0,12 3671 155 0,62 4276 —77 0,13 3826 145 0,63 4199 —78 0,14 3971 134 0,64 4121 —81 0,15 4105 125 0,65 4040 —83 0,16 4230 116 0,66 3957 —86 0,17 4346 • 107 0,67 3871 —87 0,18 4453 99 0,68 3784 —90 0.19 4552 92 0,69 3694 —92 0,20 4644 84 0,70 3602 —94 0,21 4728 78 0,71 3508 —96 0,22 4806 71 0,72 3412 —98 0,23 4877 67 0,73 3314 —99 0,24 4941 59 0,74 3215 —102 0,25 5000 53 075 3113 — 104 0,26 5053 47 0,76 3009 -106 0,27 5100 42 0,77 2903 —107 0,28 5142 37 0,78 2796 —109 0,29 5179 32 0.79 2687 —112 0,30 5211 27 0,80 2575 -113 0,31 5238 22 0,81 2462 -114 0,32 5260 18 0,82 2348 -117 0,33 5278 14 0,83 2231 —119 0,34 5292 9 0,84 2112 —120 0,35 5301 5 0,85 1992 -121 0,36 5306 1 0,86 1871 —123 0,37 5307 —2 0,87 1748 -125 0,38 5305 —7 0,88 1623 —127 0,39 5298 —10 0,89 1496 —128 0,40 5288 —14 , 0,90 1368 —130 0,41 5274 —18 0,91 1238 -131 0,42 5256 —20 0,92 0,1107 —133 0,43 5236 —24 0,93 0,0974 —135 0,44 5210 —26 0,94 839 —136 0,45 5184 —29 0,95 703 —138 0,46 5153 —33 0,96 565 —139 0,47 5120 -37 0,97 426 —140 0,48 5083 0,98 286 —142 0,49 5043 43 0,99 144 —144 0,50 0,5000 1,00 0
572 ПРИЛОЖЕНИЕ Таблица 8 Значения е а (распределение Пуассона) т а=0,1 а=0,2 а = 0,3 а-0,4 а = 0,5 а=0,6 а = 0,7 а=0,8 а=0,9 0 0,9048 0,8187 0,7408 0,6703 0,6065 0,5488 0,4966 0,4493 0,4066 1 0,0905 0,1638 0,2222 0,2681 0,3033 0,3293 0,3476 0,3595 0,3659 2 0,0045 0,0164 0,0333 0,0536 0,0758 0,0988 0,1217 0,1438 0,1647 3 0,0002 0,0019 0,0033 0,0072 0,0126 0,0198 0,0284 0,0383 0,0494 4 0,0001 0,0002 0,0007 0,0016 0,0030 0,0050 0,0077 0,0111 •5 0,0001 0,0002 0,0004 0,0007 0,0012 0,0020 6 0,0001 0,0002 0,0003 т а = 1 а = 2 а=3 а—4 а = 5 а=6 а = 7 л=8 а=9 а = 10 0 0,3679 0,1353 0,0498 0,0183 0,0067 0,0025 0,0009 0,0003 0,0001 0,0000 1 0,3679 0,2707 0,1494 0,0733 0,0337 0,0149 0,0064 0,0027 0,0011 0,0005 2 0,1839 0,2707 0,2240 0,1465 0,0842 0,0446 0,0223 0,0107 0,0050 0,0023 3 0,0613 0,1804 0,2240 0,1954 0,1404 0,0892 0,0521 0,0286 0,0150 0,0076 4 0,0153 0,0902 ОД 680 0,1954 0,1755 0,1339 0,0912 0,0572 0,0337 0,0189 5 0,0031 0,0361 0,1008 0,1563 0,1755 0,1606 0,1277 0,0916 0,0607 0,0378 6 0,0005 0,0120 0,0504 0,1042 0,1462 0,1606 0,1490 0,1221 0,0911 0,0631 7 0,0001 0,0037 0,0216 0,0595 0,1044 0,1377 0,1490 0,1396 0,1171 0,0901 8 . 0,0009 0,0081 0,0298 0,0653 0,1033 0,1304 0,1396 0,1318 0,1126 9 0,0002 0,0027 0,0132 0,0363 0,0688 0,1014 0,1241 0,1318 0,1251 10 0,0008 0,0053 0,0181 0,0413 0,0710 0,0993 0,1186 0,1251 И 0,0002 0,0019 0,0082 0,0225 0,0452 0,0722 0,0970 0,1137 12 0,0001 0,0006 0,0034 0,0126 0,0263 0,0481 0,0728 0,0948 13 0,0002 0,0013 0,0052 0,0142 0,0296 0,0504 0,0729 14 0,0001 0,0005 0,0022 0,0071 0,0169 0,0324 0,0521 15 0,0002 0,0009 0,0033 0,0090 0,0194 0,0347 16 0,0003 0,0014 0,0045 0,0109 0,0217 17 0,0001 0,0006 0,0021 0,0058 0,0128 18 0,0002 0,0009 0,0029 0,0071 19 0,0001 0,0004 0,0014 0,0037 20 0,0002 0,0006 0,0019 21 0,0001 0,0003 0,0009 22 0,0001 0,0004 23 0,0002 24 0,0001
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Асимметрия 97 Вероятностная зависимость 173 Вероятность доверительная 318 — события 24 --- условная 46 — статистическая 29 Выборка 142 Выравнивание статистических ря- дов 143 Генеральная совокупность 142 Гистограмма 137 Главные оси рассеивания 194 — средние квадратические отклоне- ния 194 Группа событий полная 25 Дисперсия 96, 403 * — случайной функции 378 Доверительные границы 318 Доверительный интервал 318 Зависимость случайных величин ли- нейная 179 — стохастическая 173 Закон больших чисел 88, 286, 290 — Гаусса 116 — Пуассона 106 — равномерной плотности 103 — распределения 68, 182, .376 ---дифференциальный 80 ---интегральный 73 — — предельный 287 — — случайной функции 375 — — суммы 271 ---условный 169 ---устойчивый 278 * — редких явлений 113 — Симпсона 274 — треугольника 274 — Эрланга 532 Интеграл вероятностей 122 — Фурье 434 Информация 481 — полная взаимная 486 • (средняя) 486 — частная 489 Код 502 — двоичный 503 — Шеннона —- Фено 505 Кодирование 502 Комплекс 159 Композиция законов распределения 272 — нормальных законов 275 -------на плоскости 280 Корреляция отрицательная 180 — положительная 180 Коэффициент корреляции 178 Кривая распределения 80 Кривые Пирсона 145 — равной плотности 165 Критерии согласия 149 Критерий Колмогорова 156 - X2 151 Круговое рассеивание 196 Линеаризация функций 252 Линия регрессии 192 Математическая статистика 131 Математическое ожидание 86, 218, 402 --- случайной функции 377 •--условное 192 Матрица корреляционная 185 --- нормированная 186 Медиана 92 Мера точности 120 Метод моментов 145 — наименьших квадратов 354 Многоугольник распределения 69 Мода 90
574 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Момент 92 — абсолютный 99 — корреляционный 176 — начальный 92, 93, 175 — нормального распределения 120 — связи 176 — системы случайных величин 175 — статистический 140 - — центральный 94, 175, 176 Непосредственный подсчет вероят- ностей 25 Неравенство Чебышева 287 Нормальный закон 116, 280, 297 ---- в пространстве 205 -------теории стрельбы 297 ----, каноническая форма 194 ----на плоскости 188 ----, параметры 117 Обработка стрельб 347 Объединение двух систем 475 Опыты независимые 59 Отклонение вероятное 127 ---- главное 195 — срединное 127 — среднее арифметическое 99 ----квадратическое 96, 97 Оценка 313 — несмещенная 314 — состоятельная 313 — эффективная 314 Оценки для характеристик системы 339 Плотность вероятности 80 — дисперсии средняя 431 — • потока мгновенная 527 ---- заявок приведенная 545 — распределения 80, 164 ----системы двух величин 163 ------- нескольких величин 182 — спектральная 432 ---- нормированная 434 Поверхность распределения 165 Поток Пальма 529 — событий 520 ----без последействия 520, 521 ----нестационарный пуассоновский 527 ----однородных 520 ----ординарный 520, 522 ----простейший 520 ----регулярный 520 ----с ограниченным последействи- ем 529 ----стационарный 520, 521 — Эрланга 530—533 Правило трех сигма 125, 290 Преобразование Фурье 300, 434 ---- обратное 300 Принцип практической уверенности 35 Произведение событий 39 Производительность источника ин* формации 508 Пропускная способность канала 508, 511 ----системы абсолютная 516 ----относительная 516, 544 Простая статистическая совокуп- ность 133, 134 Процесс без последействия 537 — марковский 537 — стохастический 20 Разложение корреляционной функ- ции каноническое 412 — случайной функции 409 -------- каноническое 412 — спектральное 430, 431 ----в комплексной форме 438 Распределение антимодальное 91 — биномиальное 61 — полимодальное 91 — Пуассона 106 — Релея 200 — Стьюдента 325 Рассеивание 96, 176 Реализация случайной функции 371 Ряд распределения 69 — статистический 136 ---- простой 134 Свойство суперпозиции 409 Сетка рассеивания 202 ^Сечение случайной функции 374 Система случайных величин 159 Системы величин некоррелирован- ные 187 • — массового обслуживания 515 Скошенность 97 Случаи 26 • — благоприятные 26 Случайная величина 32, 67 ---- дискретная 32 ----комплексная 402 ----непрерывная 32 ---- прерывная 32 ----смешанная 77 •---характеристическая 33 ---- центрированная 93 * — точка 159 — функция 370, 371 — — комплексная 404
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ 575 Случайная функция нормированная 383 ---, разложение 409 --- центрированная 382 --- элементарная 407 Случайное явление 11 Случайные векторы некоррелирован- ные 187 — величины зависимые 172 ---независимые 172, 183 — — некоррелированные 178 — — несвязанные 178 — функции, сложение 399 Случайный вектор 160 — процесс нестационарный 419 — — стационарный 419 Событие 23 — достоверное 24 — невозможное 24 События зависимые 46 — независимые 45, 48 — несовместные 26 — практически достоверные 34 ---невозможные 34 — противоположные 42 — равновозможные 26 Спектр дисперсий 431 — стационарной случайной функции Стандарт 96 Статистическое среднее 140 Степень неопределенности системы 469, 470 Сумма событий 38 Сходимость по вероятности 31 Теорема Бернулли 31, 36, 286, 295 — гипотез 56 — Лапласа 308 — Маркова 294 — о повторении опытов 61, 63 — Пальма 530 — Пуассона 296 _ — сложения вероятностей 40 --- дисперсий 224 ---корреляционных матриц 230 —-------моментов 229 ---математических ожиданий 221 — — энтропий 476 — умножения вероятностей 46 ---законов распределения 170 ---математических ожиданий 226 — центральная предельная 287, 297, 302, 303 — Чебышева обобщенная 293 Теорема Шеннона вторая 513 ----- первая 508 Теоремы предельные 287 Теория информации 468 - Уравнения Эрланга 543 Условие Линдеберга 306 Устойчивость средних 88, 286 — частот 28, 29 Формула Бейеса 56 — полной вероятности 54 ----- — интегральная 217, 218 Формулы Эрланга 546 Функция автокорреляционная 379 — корреляционная 379 ----- взаимная 399 ----- нормированная 381, 422 — Лапласа 128 ----- приведенная 129 — производящая 62 — распределения 73 ----- нормальная 123 -----системы двух величин 160 -------- нескольких величин 182 ----- статистическая 134 — связи корреляционная 399 — характеристическая 299, 301 Характеристика частотная 449 Характеристики выборочные 142 — комплексной случайной величины 402 — положения 85 — рассеивания 96 — системы величин 184 — случайной функции 377 — числовые 85 -----функций случайных величин 210 Центр рассеивания 118 Частота события 24, 28 Эксцесс 98 Элемент вероятности 81, 165 Эллипс равной плотности 194 — • рассеивания 194 — единичный 195 — — полный 195 Энтропия 471, 481 — приведенная 495 — условная 477 — частная условная 496 Эргодическое свойство 458
Учебное издание Вентцель Елена Сергеевна ТЕОРИЯ ВЕРОЯТНОСТЕЙ Редактор Ж. И. Яковлева Внешнее оформление Н.В. Бабин Лицензия ИД № 06236 от 09.11.01. Изд. № РЕНТ-422. Подл, в печать 29.08.06. Формат бОхвв1/^. Бум. газета. Гарнитура «Литературная». Печать офсетная. Объем 35,28 усл. печ. л., 35,78 усл. кр.-отт. Тираж 5000 экз. Заказ № 3015. ФГУП «Издательство «Высшая школа», 127994, Москва, ГСП-4, Неглинная ул., 29/14. Тел.: (495) 200-04-56. http://www.vshkola.ru. E-mail: info_vshkola@mail.ru Отдел реализации. (495) 200-07-69, 200-31-47, факс: (495) 200-34-86. E-mail: sales_vshkola@mail.ru Отпечатано в ОАО «Ивановская областная типография». 153008, г. Иваново, ул. Типографская, 6. E-mail: 091-018@adminet.ivanovo.ru
Вентцель 4 u ТЕОРИЯ ВЕРОЯТНОСТЕЙ