Text
                    Е.С.Вентцель
ТЕОРИЯ
ВЕРОЯТНОСТЕЙ
ВЫСШАЯ ШКОЛА

УДК 511.3 ББК 22.171 В 29 Веитксль Е.С. В 29 Теория вероятностей: Учеб, для вузов. — 7-е изд. стер. — М.: Высш, шк., 2001. — 575 с.: ил ISBN 5-06-003650-2 Книга представляет собой один из наиболее известных учебников по теории вероятностей и предназначена для лиц, знакомых с высшей математи- кой и интересующихся техническими приложениями теории вероятностей. Она представляет также интерес для всех тех, кто применяет теорию вероятностей в своей практической деятельности. В книге уделено большое внимание различным приложениям теории вероятностей (теории вероятностных процессов, теории информации, теории массового обслуживания и др.). Для студентов высших учебных заведений. УДК 511.3 ББК 22.171 ISBN 5-06-003650-2 © ГУП «Издательство «Высшая школа», 2001 Оригинал-макет данного издания является собственностью издательства «Вы- сшая школа» и его репродуцирование (воспроизведение) любым способом без со- гласия издательства запрещается.
ОГЛАВЛЕНИЕ Предисловие ............................................ • • » - • 9 Глава 1. Введение ........................................... 11 1.1. Предмет теории вероятностей ......................... И 1.2. Краткие исторические сведения......................... 17 Глава 2. Основные понятия теории вероятностей.....................23 2.1. Событие. Вероятность события.......................... 23 2.2. Непосредственный подсчет вероятностей .......... 24 2.3. Частота, или статистическая вероятность, события...... 28 2.4. Случайная величина.................................... 32 2.5. Практически невозможные и практически достоверные со- бытия. Принцип практической уверенности................. 34 Глава 3. Основные теоремы теории вероятностей................... 37 3.1. Назначение основных теорем. Сумма н произведение событий 37 3.2. Теорема сложения вероятностей......................... 40 3.3. Теорема умножения вероятностей........................ 45 3.4. Формула полной вероятности............................ 54 3.5. Теорема гипотез (формула Бейеса)..................... 56 Глава 4. Повторение опытов....................................... 59 4.1. Частная теорема о повторении опытов.................... 59 4.2. Общая теорема о повторении опытов...................... 61 Глава б.'Случайные величины и их законы распределения . . . . 67 5.1. Ряд распределения. Многоугольник распределения........ 67 5.2. Функция распределения................................. 72 5.3. Вероятность попадания случайной величины на заданный участок..................................................... 78 5.4. Плотность распределения ............................. 80 5.5. Числовые характеристики случайных величии. Их ропь и на- значение ............................................... . 84 5.6. Характеристики положения (математическое ожидание, мода, медиана).................................................. 85 5.7. Моменты. Дисперсия. Среднее квадратическое отклонение . - 92 5-8. Закон равномерной плотности .......................... 103 5-9. Закон Пуассона W6
4 ОГЛАВЛЕНИЕ Глава 6. Нормальный закон распределения......................... цз 6.1. Нормальный закон и его параметры.......................116 6.2. Моменты нормального распределения......................120 6.3. Вероятность попадания случайном величины, подчиненной нормальному закону, на заданный участок. Нормальная функ- ция распределения ......................................... 122 6.4. Вероятное (срединное) отклонение . . * . ..............127 Глава 7. Определение законов распределения случайных вели- чин на основе опытных данных.....................................131 7.1. Основные задачи математической статистики..............131 7.2. Простая статистическая совокупность. Статистическая функ- ция распределения...........................................133 7.3. Статистический ряд. Гистограмма....................... 136 7.4. Числовые характеристики статистического распределения . . 139 7.5. Выравнивание статистических рядов......................143 7.6. Критерии согласия......................................149 Глава 8. Системы случайных величин.............................. 159 8.1. Понятие о системе Случайных величин....................159 8.2. Функция распределения системы двух случайных величин . . 16Э 8.3. Плотность распределения системы двух случайных величин 163 8.4. Законы распределения отдельных величин, входящих в си- стему. Условные законы распределения...................... 168 8.5. Зависимые и независимые случайные величины.............171 8.6. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции...............175 8.7. Система произвольного числа случайных величин..........182 8.8. Числовые характеристики системы нескольких случайных величин •................................................. 184 Глава 9. Нормальный закон распределения для системы случай- ных величин.....................................................188 9.1. Нормальный закон на плоскости.........................188 9.2. Эллипсы рассеивания. Приведение нормального закона к ка- ноническому виду............... ...........................193 9.3. Вероятность попадания в прямоугольник со сторонами, па- раллельными главным осям рассеивания........................196 S.4. Вероятность попадания в эллипс рассеивания............198 9.5. Вероятность попадания в область произвольной формы . . . 202 9.6. Нормальный закон в пространстве трех измерений: Общая запись нормального закона для системы произвольного числа случайных величии .........................................205 Глава 10. Числовые характеристики функций случайных величин 210 10.1. Математическое ожидание функции. Дисперсия функции . . 210 10.2. Теоремы о числовых характеристиках ..................219 10.3. Применения теорем о числовых характеристиках.........230 Глава 11. Линеаризация функций...................................252 11-1. Метод линеаризации функций случайных аргументов .... 252 11.2 Линеаризация функции одного случайного аргумента .... 253 11.3. Линеаризация функции нескольких случайных аргументов 255 11.4. Уточнение результатов, полученных методом линеаризации 259
ОГЛАВЛЕНИЕ 5 g а § § ёШ s ШЗ § a а Глава 12, Законы распределения функций случайных аргументов 12.1. Закон распределения монотонном функции одного случай- ного аргумента ........................................... 12.2. Закон распределения линейной функции от аргумента, под- чиненного нормальному закону.............................. 12.3. Закон распределения немонотонной функции одного случай- ного аргумента...........................L................ 12.4. Закон распределения функции двух случайных величии . . . 12.5. Закон распределения суммы двух случайных величин. Ком- позиция законов распределении ............................ 12.6. Композиция нормальных законов........................ 12.7. Линейные функции от нормально распределенных аргументов 12.8. Композиция нормальных законов на плоскости........... Глава 13. Предельные теоремы теории вероятностей................ 13.1. Закон больших чисел и центральная предельная теорема . . 13.2. Неравенство Чебышева................................. 13.3. Закон больших чисел (теорема Чебышева)............... 13.4. Обобщенная теорема Чебышева. Теорема Маркова......... 13-5. Следствия закона больших чисел: теоремы Бернулли н Пуас- сона ..................................................... 13.6. Массовые случайные явления н центральная предельная теорема .................................................. 13.7. Характеристические функции........................... 13.8. Центральная предельная теорема для одинаково распреде- ленных слагаемых.......................................... 13.9. Формулы, выражающие центральную предельную теорему и встречающиеся при ее практическом применении.............. Глава 14. Обработка опытов...................................... 14.1. Особенности обработки ограниченного числа опытов. Оценки для неизвестных параметров закона распределения........... 14.2. Оценки для математического ожидания и дисперсии .... 14.3. Доверительный интервал. Доверительная вероятность .... 14.4. Точные методы построения доверительных интервалов для параметров случайной величины, распределенной по нор- мальному закону........................................ 14.5. Оценка вероятности по частоте........................ 14.6. Оценки для числовых характеристик системы случайных величин .............. ................................... 14.7. Обработка стрельб.................................... 14.8. Сглаживание экспериментальных зависимостей по методу наименьших квадратов................................... Глава 15. Основные понятия теории случайных функций .... 15.1. Понятие о случайной функции ......................... 15.2. Понятие о случайной функции как расширение понятия о си- стеме случайных величин. Закон распределения случайной функции....................................................374 15.3. Характеристики случайных функций............ . 377 15.4. Определение характеристик случайной функции из опыта . 383 15.5. Методы определения характеристик преобразованных слу- чайных функций по характеристикам исходных случайных функций....................................................385
6 ОГЛАВЛЕНИЕ 15.6. Линейные н нелинейные операторы. Оператор динамической системы................................................. 388 15.7. Линейные преобразования случайных функций ...........393 15.8. Сложение случайных функций...........................399 15.9. Комплексные случайные функции........................402 Глава 16. Канонические разложения случайных функций .... 405 16.1. Идея метода канонических разложений. Представление слу- чайной функции в виде суммы элементарных случайных функций............................j......................406 16.2. Каноническое разложение случайной функции............410 16.3. Линейные преобразования случайных функций, заданных каноническими разложениями............................. . 411 Глава 17. Стационарные случайные функции.........................419 17.1. Понятие о стационарном случайном процессе.......... 419 17.2. Спектральное разложение стационарной случайной функции на конечном участке времени. Спектр дисперсий.............427 17-3. Спектральное разложение стационарной случайной функции на бесконечном участке времени. Спектральная плотность стационарной случайной функции ...................... 431 17.4. Спектральное разложение случайной функции в комплексной форме.....................................................438 17.5. Преобразование стационарной случайной функции стацио- нарной линейной системой..................................447 17.6- Применения теории стационарных случайных процессов к решению задач, связанных с анализом н синтезом динами- ческих систем.............................................454 17.7. Эргодическое свойство стационарных случайных функций 457 17-8. Определение характеристик эргодической стационарной слу- чайной функции по одной реализации....................462 Глава 18. Основные понятия теории информации.....................468 18.1. Предмет и задачи теории информации...................468 18.2. Энтропия как мера степени неопределенности состояния физической системы...................................... 469 18.3. Энтропия сложной системы. Теорема сложения энтропий . . 475 18.4. Условная энтропия. Объединение зависимых систем .... 477 18.5. Энтропия и информация.........................- . 481 18.6. Частная информация о системе, содержащаяся в сообщении о событии. Частная информация о событии, содержащаяся в сообщении о другом событии............................ 489 18.7. Энтропия н информация для систем с непрерывным множест- ством состояний...........................................493 18.8. Задачи кодирования сообщений. Код Шеннона — Фэно . . . 502 18.9. Передача информации с искажениями. Пропускная способ- ность канала с помехами ..................................509 Глава 19. Элементы теории массового обслуживания.................515 19.1. Предмет теории массового обслуживания................515 19.2. Случайный процесс со счетным множеством состояний . . 517 19.3. Поток событий. Простейший поток и его свойства .... 520 19.4. Нестационарный пуассоновский поток...................527
ОГЛАВЛЕНИЕ 7 19. 5. Поток с ограниченным последействием (поток Пальма) . . 529 19. 6. Время обслуживания................................534 19. 7. Марковский случайный процесс......................537 19. 8. Система массового обслуживания с отказами. Уравнения Эрланга.............................................5-10 19. 9. Установившийся режим обслуживания. Формулы Эрланга . 544 19.10. Система массового обслуживания с ожиданием.........548 19.11. Система смешанного типа с ограничением по длине очереди 557 Приложение. Таблицы.............................................561 Литература ... 573 Предметный указатель.......................................... 574
ГРЕЧЕСКИЙ АЛФАВИТ А, а — альфа г, у — гамма Е, с — эпсилон н, Ч — эта 1, < — йота Л, ). — лямбда N, v — ню II, л — пи X, а — сигма Т » — ипсилон X, X — хи И, а> — омега в, р — бета А, 6 — дельта 2, С — дзета &, е. v — тета К, к — каппа М, ц М1О s, i — КСИ р. р — ро Т, г — тау ф, <р — фи % ф — пси
ПРЕДИСЛОВИЕ Настоящая книга написана на базе лекций по теории вероят- ностей, читанных автором в течение ряда лет слушателям Воен- но-воздушной инженерной академии им. Н. Е. Жуковского, а так- же учебника автора по тому же предмету. Учебник рассчитан, в основном, на инженера, имеющего ма- тематическую подготовку в объеме обычного курса высших тех- нических учебных заведений. При составлении книги автор ста- вил задачу изложить предмет наиболее просто и наглядно, не связывая себя рамками полной математической строгости. В свя- зи с этим отдельные положения приводятся без доказательства (раздел о доверительных границах и доверительных вероятно- стях; теорема А. Н. Колмогорова, относящаяся к критерию согласия, н некоторые другие); некоторые положения доказыва- ются не вполне строго (теорема умножения законов распределе- ния; правила преобразования математического ожидания и кор- реляционной функции при интегрировании и дифференцировании случайной функции и др.). Применяемый математический аппарат, в основном, не выхо- дит за рамки курса высшей математики, излагаемого в высших технических учебных заведениях; там, где автору приходится использовать менее общеизвестные понятия (например, понятие линейного оператора, матрицы, квадратичной формы и т. д.), эти понятия поясняются. Книга снабжена большим количеством примеров, в ряде слу- чаев расчетного характера, в которых применение излагаемых методов иллюстрируется на конкретном практическом материале
н доводится до численного результата. Несмотря на несколько специфический подбор примеров, иллюстрати вныи материал, по- мещенный в книге, понятен и инженерам, работающим в разных областях техники, и всем, кто использует методы теории вероят- ностей в своей работе. Автор выражает глубокую благодарность профессору Е. Б. Дынкину и профессору В. С. Пугачеву за ряд ценных указаний. Е. Вентцелъ
ГЛАВА 1 ВВЕДЕНИЕ 1.1. Предмет теории вероятностей Теория вероятностей есть математическая наука, изучающая законо- мерности в случайных явлениях. Условимся, чтб мы будем понимать под «случайным явлением». При научном исследовании различных физических и технических задач часто приходится встречаться с особого типа явлениями, кото- рые принято называть случайными. Случайное явление — это такое явление, которое при неоднократном воспроизведении одного и того же опыта протекает каждый раз несколько по-иному. Приведем примеры случайных явлений. 1. Производится стрельба из орудия, установленного под задан- ным углом к горизонту (рис. 1.1.1). Пользуясь методами внешней баллистики (науки о движении сна- ряда в воздухе), можно (кривая К на рис. 1.1.1). Эта траектория вполне определяется условиями стрельбы: начальной ско- ростью снаряда г»0. углом бросания и баллисти- ческим коэффициентом снаряда с. Фактическая траектория каждого отдельного снаряда неизбежно несколько откло- няется от теоретической за счет совокупного влияния многих факторов. Среди этих факторов можно, например, назвать: ошибки изготовления снаряда» отклонение веса заряда от номинала, неоднородность струк- туры заряда, ошибки установки ствола в заданное положение, метео- рологические условия н т. д. Если произвести несколько выстрелов при неизменных основных условиях (т^, 60, с), мы получим ие одну теоретическую траекторию, а целый пучок или «сноп» траекторий, образующий так называемое «рассеивание снарядов». 2. Одно и то же тело несколько раз взвешивается па аналити- ческих весах; результаты повторных взвешиваний несколько отли- чаются друг от друга. Эти различия обусловлены влиянием многих найтк теоретическую траекторию снаряда Рнс. 1.1.1.
12 ВВЕДЕНИЕ ТТЛ. Т второстепенных факторов, сопровождающих операцию взвешивания, таких как положение тела на чашке весов, случайные вибрации аппа- ратуры. ошибки отсчета показаний прибора и т. д. 3. Самолет совершает полет на заданной высоте; теоретически он летит горизонтально, равномерно и прямолинейно. Фактически полет сопровождается отклонениями центра массы самолета от тео- ретической траектории и колебаниями самолета около центра массы. Эти отклонения и колебания являются случайными и связаны с турбу- лентностью атмосферы; от раза к разу они не повторяются. 4. Производится ряд подрывов осколочного снаряда в определен- ном положении относительно цели. Результаты отдельных подрывов несколько отличаются друг от друга: меняются обшее число осколков, взаимное расположение их траекторий, вес, форма и скорость каждого отдельного осколка. Эти изменения являются случайными и связаны с влиянием таких факторов, как неоднородность металла корпуса снаряда, неоднородность взрывчатого вещества, непостоянство ско- рости детонации и т. п. В связи с этим различные подрывы, осуществленные, казалось бы, в одинаковых условиях, могут при- водить к различным результатам: в одних подрывах цель будет поражена осколками, в других — нет. Все приведенные примеры рассмотрены здесь под одним и тем же углом зрения: подчеркнуты случайные вариации, неодинаковые резуль- таты ряда опытов, основные условия которых остаются неизменными. Эти вариации всегда связаны с наличием каких-то второстепенных факторов, влияющих на исход опыта, но не заданных в числе его основных условий. Основные условия опыта, определяющие в общих и грубых чертах его протекание, сохраняются неизменными; второ- степенные— меняются от опыта к опыту и вносят случайные разли- чия в нх результаты. Совершенно очевидно, что в природе нет ни одного физического явления, в котором не присутствовали бы в той или иной мере элементы случайности. Как бы точно и подробно ни были фиксиро- ваны условия опыта, невозможно достигнуть того, чтобы при повто- рении опыта результаты полностью и в точности совпадали. Случайные отклонения неизбежно сопутствуют любому законо- мерному явлению. Тем не менее в ряде практических задач этими случайными элементами можно пренебречь, рассматривая вместо реального явления его упрощенную схему, «модель», и предполагая, что в данных условиях опыта явление протекает вполне определен- ным образом. При этом из бесчисленного множества факторов, влияющих на данное явление, выделяются самые главные, основные, решающие; влиянием остальных, второстепенных факторов просто пренебрегают. Такая схема изучения явлений постоянно применяется в физике, механике, технике. При пользовании этой схемой для решения любой задачи прежде всего выделяется основной круг учи-
1 Ц ПРЕДМЕТ ТЕОРИИ ВЕРОЯТНОСТЕН 13 тываемых условий и выясняется, на какие параметры задачи они влияют; затем применяется тот или иной математический аппарат (например, составляются н интегрируются дифференциальные уравне- ния, описывающие явление); таким образом выявляется основная закономерность, свойственная данному явлению и дающая возможность Предсказать результат опыта по его заданным условиям. По мере развития науки число учитываемых факторов становится все боль- ше; явление исследуется подробнее; научный прогноз становится точнее. Однако для решения ряда вопросов описанная схема — классиче- ская схема так называемых сточных наук» — оказывается плохо при- способленной. Существуют такие задачи, где интересующий нас исход опыта зависит от столь большого числа факторов, что практически невозможно зарегистрировать н учесть все эти факторы. Это—задачи, в которых многочисленные второстепенные, тесно переплетающиеся между собой случайные факторы играют заметную роль, а вместе с тем число их так велико н влияние столь сложно, что применение классических методов ис- _______ следования себя не оправ- дывает. Рассмотрим пример. \\х\ Производится стрельба по уг \в0 \Х^х\ некоторой цели Ц из —------------------------------------х // Х орудия, установленного под углом 60 к гори- Рис. 1.1.2. зонту (рис. 1.1.2). Траск-’ тории снарядов, как было указано выше, не совпадают между собой; в результате точки падения снарядов на земле рассеиваются. Если размеры цели великн по сравнению с областью рассеивания, то этим рассеиванием, очевидно, можно пренебречь: при правильной установке орудия любой выпушенный снарад попадает в цель. Если же (как обычно н бывает на практике) область рассеивания снарядов превышает размеры цели, то некоторые из снарядов в связи с влия- нием случайных факторов в цель не попадут. Возникает ряд вопро- сов. например: какой процент выпущенных снарядов в среднем попадает в цель? Сколько нужно потратить снарядов для того, чтобы доста- точно надежно поразить цель? Какие следует принять меры для уменьшения расхода снарядов? Чтобы ответить на подобные вопросы, обычная схема точных наук оказывается недостаточной. Эти вопросы органически связаны со случайной природой явления; для того чтобы на них ответить, очевидно, нельзя просто пренебречь случайностью. — надо изучить случайное явление рассеивания снарядов с точки зрения закономер- ностей, присущих ему именно как случайному делению. Надо иссле- довать закон, по которому распределяются точки падения снарядов;
14 ВВЕДЕНИЕ [ГЛ. I нужно выяснить случайные причины, вызывающие рассеивание, срав- нить их между собой по степени важности и т. д. Рассмотрим другой пример. Некоторое техническое устройство, например система автоматического управления, решает определенную задачу в условиях, когда на систему непрерывно воздействуют слу- чайные помехи. Наличие помех приводит к тому, что система решает задачу с некоторой ошибкой, в ряде случаев выходящей за пределы допустимой. Возникают вопросы: как часто будут появляться такие ошибки? Какие следует принять меры для того, чтобы практически исключить их возможность? Чтобы ответить на такие вопросы, необходимо исследовать при- роду и структуру случайных возмущений, воздействующих на систему» изучить реакцию системы на такие возмущения, выяснить влияние конструктивных параметров системы на вид этой реакции. Все подобные задачи, число которых в физике и технике чрезвы- чайно велико, требуют изучения не только основных, главных зако- номерностей. определяющих явление в общих чертах, но и анализа случайных возмущений и искажений, связанных с наличием второ- степенных факторов и придающих исходу опыта при заданных усло- виях элемент неопределенности. Какие же существуют пути и методы для исследования случай- ных явлений? С чисто теоретической точки зрения те факторы, которые мы условно назвалн «случайными», в принципе ничем не отличаются от других, которые мы выделили в качестве «основных». Теоретически можно неограниченно повышать точность решения каждой задачи, учитывая все новые н новые группы факторов: от самых существен- ных до самых ничтожных. Однако практически такая попытка оди- наково подробно н тщательно проанализировать влияние решительно всех факторов, от которых зависит явление, привела бы только к тому, что решение задачи, в силу непомерной громоздкости и сложности, оказалось бы практически неосуществимым н к тому же не имело бы никакой познавательной ценности. Например, теоретически можно было бы поставить н решить вадачу об определении траектории вполне определенного снаряда, с учетом всех конкретных погрешностей его изготовления, точного веса н конкретной структуры данного, вполне определенного поро- хового заряда при точно определенных метеорологических данных (температура, давление, влажность, ветер) в каждой точке траектории. Такое решение не только было бы необозримо сложным, но и не имело бы никакой практической ценности, так как относилось бы только к данному конкретному снаряду и заряду в данных конкрет- ных условиях, которые практически больше не повторятся. Очевидно, должна существовать принципиальная разница в мето- дах учета основных, решающих факторов, определяющих в главных
Т.п ПРЕДМЕТ ТЕОРИИ ВЕРОЯТНОСТЕЙ 15 чертах течение явления, и вторичных, второстепенных факторов, влияющих на течение явления в качестве «погрешностей» или «воз- мущений». Элемент неопределенности, сложности, многопрнчинности. присущий случайным явлениям, требует создания специальных мето- дов для изучения этих явлений. Такие методы и разрабатываются в теории вероятностей. Ее предметом являются специфические закономерности, наблюдаемые в случайных явлениях. Практика показывает, что. наблюдая в совокупности массы одно- родных случайных явлений, мы обычно обнаруживаем в них вполне определенные закономерности, своего рода устойчивости, свой- ственные именно массовым случайным явлениям. Например, если много раз подряд бросать монету, частота по- явления герба (отношение числа появившихся гербов к общему числу бросаний) постепенно стабилизируется, приближаясь к вполне опре- деленному числу, именно к Такое же свойство «устойчивости частот» обнаруживается и при многократном повторении любого дру- гого опыта, исход которого представляется заранее неопределенным, случайным. Так, прн увеличении числа выстрелов частота попадания в некоторую цель тоже стабилизируется, приближаясь к некоторому постоянному числу. Рассмотрим другой пример. В сосуде заключен какой-то объем газа, состоящий из весьма большого числа молекул. Каждая моле- кула за секунду испытывает множество столкновений с другими молекулами, многократно меняет скорость и направление движения: траектория каждой отдельной молекулы случайна. Известно, что давление газа на стенку сосуда обусловлено совокупностью ударов молекул об эту стенку. Казалось бы, если траектория каждой от- дельной молекулы случайна, то и давление на стенку сосуда должно было бы изменяться случайным и неконтролируемым образом: однако это не так. Если число молекул достаточно велико, то давление газа практически не зависит от траекторий отдельных молекул и подчиняется вполне определенной и очень простой закономерности. Случайные особенности, свойственные движению каждой отдельной молекулы, в массе взаимно компенсируются; в результате, несмотря на сложность н запутанность отдельного случайного явления, мы получаем весьма простую закономерность, справедливую для массы случайных явлений. Отметим, что именно массовость случайных явлений обеспечивает выполнение этой закономерности; при ограни- ченном числе молекул начинают сказываться случайные отклонения от закономерности, так называемые флуктуации. Рассмотрим еще один пример. По некоторой мишени произво- дится одни за другим ряд выстрелов; наблюдается распределение точек попадания на мишени. Прн ограниченном числе выстрелов точки
16 ВВЕДЕНИЕ |ГЛ. t попадания распределяются по мишени в полном беспорядке, без какой- либо видимой закономерности. По мере увеличения числа выстрелов и расположении точек попадания начинает i аЗлюдаться некоторая закономерность; эта закономерность проявляется тем отчетливее, чем большее количесто выстрелов произведено. Расположение точек попадания оказывается приблизительно симметричным относительно некоторой центральной точки: в центральной области группы пробоин они расположены гуще, чем по краям; при этом густота пробоин убывает по вполне определенному закону (так называемый «нормаль- ный закон» или «закон Гаусса», которому будет уделено большое внимание в данном курсе). Подобные специфические, так называемые «статистические», за- кономерности наблюдаются всегда, когда мы имеем дело с массой однородных случайных явлений. Закономерности, проявляющиеся s этой массе, оказываются практически независимыми от индиви- дуальных особенностей отдельных случайных явлений, входящих в массу. Эти отдельные особенности в массе как бы взаимно пога- шаются, нивелируются, и средний результат массы случайных явле- ний оказывается практически уже не случайным. Именно эта много- кратно подтвержденная опытом устойчивость массовых случайных явлений и служит базой для применения вероятностных (статистиче- ских) методов исследования. Методы теории вероятностей по природе приспособлены только для исследования массовых случайных явлений; они не дают возможности предсказать исход отдельного случайного явления, но дают возможность предсказать средний суммарный ре- зультат массы однородных случайных явлений, предсказать средний исход массы аналогичных опытов, конкретный исход каждого из ко- торых остается неопределенным, случайным. Чем большее количество однородных случайных явлений участ- вует в задаче, тем определеннее и отчетливее проявляются прису- щие нм специфические законы, тем с большей уверенностью к точ- ностью можно осуществлять научный прогноз. Во всех случаях, когда применяются вероятностные методы исследования, цель их в том. чтобы, минуя слишком сложное (и зачастую практически невозможное) изучение отдельного явления, обусловленного слишком большим количеством факторов, обратиться непосредственно к законам, управляющим массами случайных явле- ний. Изучение этих законов позволяет не только осуществлять науч- ный прогноз в своеобразной области случайных явлений, но в ряде случаев помогает целенаправленно влиять на ход случайных явлений, контролировать их, ограничивать сферу действия случайности, су- жать ее влияние на практику. Вероятностный, или статистический, метод в науке не про- тивопоставляет себя классическому, обычному методу точных наук, а является его дополнением, позволяющим глубже аналн-
12] КРАТКИЕ ИСТОРИЧЕСКИЕ СВЕДЕНИЯ 17 вировать явление с учетом присущих ему элементов случай- ности. Характерным для современного этапа развития естественных и технических наук является весьма широкое и плодотворное приме- нение статистических методов во всех областях знания. Это вполне естественно, так как при углубленном изучении любого круга явле- ний неизбежно наступает этап, когда требуется нс только выявление основных закономерностей, но и анализ возможных отклонений от них. В одних науках, в силу специфики предмета и исторических условий, внедрение статистических методов наблюдается раньше, в других — позже. В настоящее время нет почти ни одной есте- ственной науки, в которой так нлн иначе не применялись бы ве- роятностные методы. Целые разделы современной физики (в част- ности, ядерная физика) базируются на методах теории вероятностей. Все шире применяются вероятностные методы в современной электро- технике и радиотехнике, метеорологии и астрономии, теории авто- матического регулирования и машинной математике. Обширное поле применения находит теория вероятностей в раз- нообразных областях военной техники: теория стрельбы н бомбоме- тания. теория боепрнпасов, теория прицелов и приборов управления огнем, аэронавигация, тактика и множество других разделов военной науки широко пользуются методами теории вероятностей н ее мате- матическим аппаратом. Математические законы теории вероятностей — отражение реаль- ных статистических законов, объективно существующих в массовых случайных явлениях природы. К изучению этих явлений теория ве- роятностей применяет математический метод и по своему методу является одним из разделов математики, столь же логически точным и строгим, как другие математические науки. 1.2. Краткие исторические снедения Теория вероятностей, подобно другим математическим наукам, развилась из потребностей практики. Начало систематического исследования задач, относящихся к мас- совым случайным явлениям, и появление соответствующего математи- ческого аппарата относятся к XVI! веку. В начале XVII века знаме- нитый физик Галилей уже пытался подвергнуть научному исследованию ошибки физических измерений, рассматрибая их как случайные и оценивая их вероятности. К этому же времени относятся первые попытки создания общей теории страхования, основанной на анализе закономерностей в таких массовых случайных явлениях, как заболе- ваемость, смертность, статистика несчастных случаев и т. д. Необ- ходимость создания математического аппарата, специально приспособ- ленного для анализа случайных явлений, вытекала и из потребностей
18 ВВЕДЕНИЕ 1ГЛ 1 обработки и обобщения обширного статистического материала во всех областях науки. Однако теория вероятностей как математическая наука сформи- ровалась, в основном, не на материале указанных выше практических задач: эти задачи слишком сложны; в ннх законы, управляющие слу- чайными явлениями, проступают недостаточно отчетливо п затушеваны многими осложняющими факторами. Необходимо было сначала изу- чить закономерности случайных явлений на более простом материале. Таким материалом исторически оказались так называемые «азартные игры». Зги игры с незапамятных времен создавались рядом поколе- ний именно так. чтобы в них исход опыта был независим от под- дающихся наблюдению условий опыта, был чисто случайным. Самое слово «азарт» (фр. «1е hasard») означает «случай». Схемы азартных игр дают исключительные по простоте н прозрачности модели слу- чайных явлений, позволяющие в наиболее отчетливой форме наблю- дать и изучать управляющие ими специфические законы; а возмож- ность неограниченно повторять один и тот же опыт обеспечивает экспериментальную проверку этих законов в условиях действитель- ной массовости явлений. Вплоть до настоящего времени примеры из области азартных игр и аналогичные им задачи на «схему урн» ши- роко употребляются при изучении теории вероятностей как упро- щенные модели случайных явлений, иллюстрирующие в наиболее простом и наглядном виде основные законы и правила теории ве- роятностей. Возникновение теории вероятностей в современном смысле слова относится к середине XVII века и связано с исследованиями Паскаля (1623—1662), Ферма (1601—1665) н Гюйгенса (1629—1695) в об- ласти теории азартных игр. В этих работах постепенно сформирова- лись такие важные понятия, как вероятность н математическое ожи- дание; были установлены их основные свойства и приемы нх вычи- сления. Непосредственное практическое применение вероятностные методы нашли прежде всего в задачах страхования. Уже с конца XVII века страхование стало производиться на научной математи- ческой основе. С тех пор теория вероятностей находит все более широкое применение в различных областях. Крупный шаг вперед в развитии теории вероятностей связан с работами Якова Бернулли (1654—1705). Ему принадлежит первое доказательство одного из важнейших положений теории вероят- ностей— так называемого закона больших чисел. Еще до Якова Бернулли многие отмечали как эмпирический факт ту особенность случайных явлений, которую можно назвать «свой- ством устойчивости частот при большом числе опытов». Было неод- яокргт.ю отмечено, что при большом числе опытов, исход каждого на которых является случайным, относительная частота появления каждого данного исхода имеет тенденцию стабилизироваться, прн-
1.21 КРАТКИЕ ИСТОРИЧЕСКИЕ СВЕДЕНИЯ 19 б лишаясь к некоторому определенному числу — вероятности этого исхода. Например, если много раз бросать монету, относительная частота появления герба приближается к !/2; при многократном бро- сании игральной ксстн частота появления грани с пятью очками при- ближается к ’/в и т- д- Яков Бернулли впервые дал теоретическое обоснование этому эмпирическом}' факту. Теорема Якова Бернулли — простейшая форма закона больших чисел—устанавливает связь между вероятностью события и частотой его появления; при доста- точно большом числе опытов можно с практической достоверностью ожидать сколь угодно близкого совпадения частоты с вероятностью. Другой важный этап п развитии теории вероятностей связан с именем Моавра (.1667—1754). Этот ученый впервые ввел в рас- смотрение и для простейшего случая обосновал своеобразный закон, очень часто наблюдаемый в случайных явлениях: так называемый нормальный закон (иначе — закон Гаусса). Нормальный закон, как мы увидим далее, играет исключительно важную роль в случайных явлениях. Теоремы, обосновывающие этот закон для тех или иных условий, носят в теории вероятностей обшее название «центральной предельной теоремы». Выдающаяся роль в развитии теории вероятностей принадлежит знаменитому математику Лапласу (1749—1827). Он впервые дал стройное и систематическое изложение основ теории вероятностей, дал доказательство одной нз форм центральной предельной теоремы (теоремы Моавра—Лапласа) и развил ряд замечательных приложе- ний теории вероятностей к вопросам практики, в частности к ана- лизу ошибок наблюдений н измерений. Значительный шаг вперед в развитии теории вероятностей связан с именем Гаусса (1777—1855), который дал еще более общее обо- снование нормальному закону и разработал метод обработки экспе- риментальных данных, известный под названием «метода наименьших квадратов». Следует также отметить работы Пуассона (1781 —1840). доказавшего более общую, чем у Якова Бернулли, форму закона больших чисел, а также впервые применившего теорию вероятностей к задачам стрельбы. С именем Пуассона связан один нз законов распределения, играющий большую роль в теории вероятностей и ее приложениях. Для всего XVI11 и начала XIX века характерны бурное развитие теории вероятностей и повсеместное увлечение ею. Теория вероят- ностей становится «модной» наукой. Ее начинают применять не только там. где это применение правомерно, но н там. где оно ничем не оправдано. Для этого периода характерны многочисленные попытки применить теорию вероятностей к изучению общественных явлений, к так называемым «моральным» или «нравственным» наукам. Во множестве появились работы, посвященные вопросам судопроизвод- ства, истории, политики, даже богословия, в которых применялся
20 ВВЕДЕНИЕ ГГЛ 1 а «парат теории вероятностей. Для всех этих псевдонаучных исследо- ваний характерен чрезвычайно упрощенный, механистический подход к рассматриваемым в них общественным явлениям. В основу рас- суждения полагаются некоторые произвольно заданные вероятности (например, при рассмотрении вопросов судопроизводства склонность .каждого человека к правде или лжи оценивается некоторой постоян- ной, одинаковой для всех людей вероятностью), и далее обществен- ная проблема решается как простая арифметическая задача. Естест- венно. что все подобные попытки были обречены на неудачу и не могли сыграть положительной роли в развитии науки. Напротив, их косвенным результатом оказалось то, что примерно в 20-х — 30-х годах XIX века в Западной Европе повсеместное увлечение теорией вероятностей сменилось разочарованием и скептицизмом. На теорию вероятностей стали смотреть как на науку сомнительную, второсорт- ную, род математического развлечения, вряд ли достойный серьез- ного изучения. Замечательно, что именно в это время в России создается та знаменитая Петербургская математическая школа, трудами которой теория вероятностей была поставлена на прочную логическую и ма- тематическую основу и сделана надежным, точным и эффективным методом познания. Со времени появления этой школы развитие теЪ- рии вероятностей уже теснейшим образом связано с работами рус- ских. а в дальнейшем—советских ученых. Средн ученых Петербургской математической школы следует назвать В. Я. Буняковского (1804—1889) —автора первого курса теории вероятностей па русском языке, создателя современной рус- ской терминологии в теории вероятностей, автора оригинальных ис- следований в области статистики и демографии. Учеником В. Я- Буняковского был великий русский математик П. Л. Чебышев (1821 —1894). Средн обширных н разнообразных математических трудов П. Л. Чебышева заметное место занимают его труды по теории вероятностей. П. Л. Чебышеву принадлежит дальнейшее расширение и обобщение закона больших чисел. Кроме того. П. Л. Чебышев ввел в теорию вероятностей весьма мощный и плодотворный метод моментов. Учеником П. Л. Чебышева был А. А. Марков (1856—1922). также обогативший теорию вероятностей открытиями и методами большой важности. А. А. Марков существенно расширил область применения закона больших чисел и центральной предельной теоремы, распространив их не только на независимые, ио и на зависимые опыты. Важнейшей заслугой А. А. Маркова явилось то, что он за- ложил основы совершенно новой ветви теории вероятностей—теории случайных, или «стохастических», процессов. Развитие Этой теории составляет основное содержание новейшей, современной теории ве- роятностей.
12] КРАТКИЕ ИСТОРИЧЕСКИЕ СВЕДЕНИЯ 21 Учеником П. Л. Чебышева был и А. М. Ляпунов (1857 —1918). с именем которого связано первое доказательство центральной пре- дельной теоремы при чрезвычайно общих условиях. Для доказатель- ства своей теоремы А. М, Ляпунов разработал специальный метод характеристических функций, широко применяемый в современной теории вероятностей. Характерной особенностью работ Петербургской математической и колы была исключительная четкость постановки задач, полная ма- тематическая строгость применяемых методов и наряду с этим тесная связь теории с непосредственными требованиями практики. Трудами ученых Петербургской математической школы теория вероятностей была выведена с задворков науки и поставлена как полноправный член в ряд точных математических наук. Условия применения ее ме- тодов были строго определены, а самые методы доведены до высокой степени совершенства. Современное развитие теории вероятностей характерно всеобщим подъемом интереса к ней и резким расширением круга ее практи- ческих применений. За последние десятилетия теория вероятностей превратилась в одну из наиболее быстро развивающихся наук, тес- нейшим образом связанную с потребностями практики и техники. Советская школа теории вероятностей, унаследовав традиции Петер- бургской математической школы, занимает в мировой науке веду- щее место. Здесь мы назовем только некоторых крупнейших советских уче- ных, труды которых сыграли решающую роль в развитии современ- ной теории вероятностей н ее практических приложений. С. Н. Бернштейн разработал первую законченную аксиоматику теории вероятностей, а также существенно расширил область при- менения предельных теорем. А. Я. Хинчин (1894 —1959) известен своими исследованиями в области дальнейшего обобщения и усиления закона больших чисел, но главным образом своими исследованиями в области так называемых стационарных случайных процессов. Ряд важнейших основополагающих работ в различных областях теории вероятностей и математической статистики принадлежит А- Н. Колмогорову. Он дал наиболее совершенное аксиоматическое построение теории вероятностей, связав ее с одним нз важнейших разделов современной математики — метрической теорией функций. Особое значение имеют работы А. Н. Колмогорова в области теории случайных функций (стохастических процессов), которые в настоящее время являются основой всех исследований в данной области. Работы А. Н. Колмогорова, относящиеся к оценке эффективности лемм в основу целого нового научного направления в теории стрельбы, пе- реросшего затем в более широкую науку об эффективности боевых действий.
22 ВВЕДЕНИЕ [ГЛ. I В. И. Романовский (1879 —1954) и Я. В. Смирнов известны своими работами в области математической статистики, Е. Е. Слуц- кий (1880 — 1948) — в теории случайных процессов, Б. В. Гнеденко — в области теории массового обслуживания, Е. Б. Дынкин — в об- ласти марковских случайных процессов, В. С. Пугачев — в области случайных процессов в применении к задачам автоматического упра- вления. Развитие зарубежной теории вероятностей в настоящее время также идет усиленными темпами в связи с настоятельными требова- ниями практики. Преимущественным вниманием пользуются, как и у нас, вопросы, относящиеся к случайным процессам. Значительные работы в этой области принадлежат, например, Н. Винеру, В. Феллеру, Д. Дубу. Важные работы по теории вероятностей и математической статистике принадлежат Р. Фишеру, Д. Нейману и Г. Крамеру. За последние годы мы стали свидетелями рождения новых и свое- образных методов прикладной теории вероятностей, появление кото- рых связано со спецификой исследуемых технических проблем. Речь идет, в частности, о таких дисциплинах, как «теория информации» и «теория массового обслуживания». Возникшие из непосредственных потребностей практики, эти разделы теории вероятностей приобрета- ют общее теоретическое значение, а круг их приложений постоянно увеличивается.
ГЛАВА 2 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ 2.1. Событие. Вероятность события Каждая наука, развивающая общую теорию какого-либо круга явлений, содержит ряд основных: понятий, на которых она базируется. Таковы, например, в геометрии понятия точки, прямой, линии; в ме- ханике— понятия силы, массы, скорости, ускорения и т. д. Есте- ственно, что не все основные понятия могут быть строго определены, так как определить понятие — это значит свести его к другим, более известным. Очевидно, процесс определения одних понятий через другие должен где-то заканчиваться, дойдя до самых первичных понятий, к которым сводятся все остальные н которые сами строго не опре- деляются, а только поясняются. Такие основные понятия существуют и в теории вероятностей. В качестве первого из них введем понятие события. Под «событием» в теории вероятностей понимается всякий факт, который в результате опыта может произойти или не произойти. Приведем несколько примеров событий: А— появление герба при бросании монеты; В — появление трех гербов при трехкратном бросании монеты; С — попадание в цель при выстреле; D—появление туза при вынимании карты из колоды; Е— обнаружение объекта при одном цикле обзора радиолока- ционной станции; Е — обрыв нити в течение часа работы ткацкого станка. Рассматривая вышеперечисленные события, мы видим, что каждое из них обладает какой-то степенью возможности: одни — большей, другие — меньшей, причем для некоторых из этих событий мы сразу же можем решить, какое из инх более, а какое менее возможно. Например, сразу видно, что событие А более возможно, чем В и D. Относи- тельно событий С, Е и F аналогичных выводов сразу сделать нельзя; для этого следовало бы несколько уточнить условия Опыта. Так или иначе ясно, что каждое из таких событий обладает той или иной степенью возможности. Чтобы количественно сравнивать между собой события по степени их возможности, очевидно, hj жно с каждым
24 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ 2 событием связать определенное число, которое тем больше, чем более возможно событие. Такое число мы назовем вероятностью события. Таким образом, мы ввели в рассмотрение второе основное по- нятие теории вероятностей — понятие вероятности события. Вероят- ность события есть численная мера степени объективной возможности этого события. Заметим, что уже при самом введении понятия вероятности со- бытия мы связываем с этим понятием определенный практический смысл, а именно: на основанки опыта мы считаем более вероятными те события, которые происходят чаще; менее вероятными —те события, которые происходят реже; мало вероятными — те, которые почти никогда не происходят Таким образом, понятие вероятности события в самой своей основе связано с опытным, практическим понятием частоты события. Сравнивая между собой различные события по степени их воз- можности, мы должны установить какую-то единицу измерения. В качестве такой единицы измерения естественно принять вероятность достоверного события, т. е. такого события, которое в результате опыта непременно должно произойти. Пример достоверного события — выпадение не более 6 очков при бросании одной игральной кости. Если приписать достоверному событию вероятность, равную еди- нице, то все другие события — возможные, ио не достоверные — будут характеризоваться вероятностями, меньшими единицы, соста- вляющими какую-то долю единицы. Противоположностью по отношению к достоверному событию является невозможное событие, т. е. такое событие, которое в данном опыте не может произойти. Пример невозможного события — появление 12 очков при бросании одной игральной кости. Естест- венно приписать невозможному событию вероятность, равную нулю. Таким образом, установлены единица измерения вероятностей—• вероятность достоверного события — и диапазон изменения вероятно- стей любых событий — числа от 0 до 1. 2.2. Непосредственный подсчет вероятностей Существует целый класс опытов, для которых вероятности их возможных исходов легко оценить непосредственно из условий самого опыта. Для этого нужно, чтобы различные исходы опыта обладали симметрией и в силу этого были объективно одинаково возможными. Рассмотрим, например, опыт, состоящий в бросании игральной кости, т. е. симметричного кубика, на гранях которого нанесено раз- личное число очков: от 1 до 6. В силу симметрии кубика есть основания считать все шесть воз- можных исходов опыта одинаково возможными. Именно это дает нам
25| НЕПОСРЕДСТВЕННЫЙ ПОДСЧЕТ ВЕРОЯТНОСТЕЙ 25 право предполагать, что при многократном бросании кости все шесть граней будут выпадать примерно одинаково часто. Это предположе- ние для правильно выполненной кости действительно оправдывается на опыте; при многократном бросании кости каждая ее грань по- является примерно в одной шестой доле всех случаев бросания, причем отклонение этой доли от тем меньше, чем большее число опытов произведено. Имея в виду, что вероятность достоверного события принята равной единице, естественно приписать выпадению каждой отдельной грани вероятность, равную Это число харак- теризует некоторые объективные свойства данного случайного явле- ния. а именно свойство симметрии шести возможных исходов опыта. Для всякого опыта, в котором возможные исходы симметричны и одинаково возможны, можно применить аналогичный прием, который называется непосредственным подсчетом вероятностей. Симметричность возможных исходов опыта обычно наблюдается только в искусственно организованных опытах, типа азартных игр. Так как первоначальное развитие теория вероятностей получила именно на схемах азартных игр, то прием непосредственного под- счета вероятностей, исторически возникший вместе с возникновением математической теории случайных явлений, долгое время считался основным и был положен в основу так называемой «классической» теории вероятностей. При этом опыты, не обладающие симметрией возможных исходов, искусственно сводились к «классической» схеме. Несмотря на ограниченную сферу практических применений этой схемы, она все же представляет известный интерес, так как именно на опытах, обладающих симметрией возможных исходов, и иа собы- тиях, связанных с такими опытами, легче всего познакомиться с основ- ными свойствами вероятностей. Такого рода событиями, допускаю- щими непосредственный подсчет вероятностей, мы и займемся в первую очередь. Предварительно введем некоторые вспомогательные понятия. I. Полная группа событий. Говорят, что несколько событий в данном опыте образуют пол- ную группу событий, если в результате опыта непременно должно появиться хотя бы одно из иих. Примеры событий, образующих полную группу: 1) выпадение герба и выпадение цифры при бросании монеты; 2) попадание и промах при выстреле; 3) появление 1,2, 3, 4. 5, 6 очков при бросании игральной кости; 4) появление белого шара и появление черного шара прн выни- мании одного шара из урны, в которой 2 белых и 3 черных шара; 5) ии одной опечатки, -одна. две. три и более трех опечаток при проверке страницы напечатанного текста;
26 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕН . [ГЛ. 2 6) хотя бы одно попадание и хотя бы один промах при двух выстрелах. 2. Несовместные события. Несколько событий называются несовместными в данном опыте, если никакие два из них не могут появиться вместе. Примеры несовместных событий: 1) выпадение герба и выпадение цифры при бросании монеты; 2) попадание и промах при одном выстреле; 3) появление I, 3, 4 очков при одном бросании игральной кости; 4) ровно один отказ, ровно два отказа, ровно три отказа тех- нического устройства за десять часов работы. 3. Равновозможные события. Несколько событий в данном опыте называются равновозмозк- ними, если по условиям симметрии есть основание считать, что ни одно из этих событий не является объективно более возможным, чем другое. Примеры равновозможных событий: 1) выпадение герба и выпадение цифры при бросании монеты; 2) появление I, 3, 4, 5 очков прн бросании игральной кости; 3) появление карты бубновой, червонной, трефовой масти при вынимании карты нз колоды; 4) появление шара с № 1, 2, 3 при вынимании одного шара нз урны, содержащей 10 перенумерованных шаров. Существуют группы событий, обладающие всеми тремя свойствами: они образуют полную группу, несовместны и равповозможиы; на- пример: появление герба и цифры прн бросании монеты; появление I, 2, 3, 4, 5, 6 очков при бросании игральной кости. События, образующие так\ю группу, называются случаями (иначе «шан- сами-). Если какой-либо опыт по своей структуре обладает симметрией возможных исходов, то случаи представляют собой исчерпывающую систему равновозможных и исключающих друг друга исходов опыта. Про такой опыт говорят, что Он «сводится к схеме случаев» (иначе — к «схеме урн»). Схема случаев по преимуществу имеет место в искусственно ор- ганизованных опытах, в которых заранее и сознательно обеспечена одинаковая возможность исходов опыта (как, например, в азартных играх). Для таких Опытов возможен непосредственный подсчет ве- роятностей, основанный на оценке доли так называемых «благопри- ятных» случаев в общем числе случаев. Случай называется благоприятным (или «благоприятствующим») некоторому событию, если появление этого случая влечет за собой появление данного события. Например, при бросании игральной кости возможны шесть слу- чаев: по1;влеш1е 1, 2, 3, 4, 5. 6 очков. Из лих событию А—появ-
2.21 НЕПОСРЕДСТВЕННЫЙ ПОДСЧЕТ ВЕРОЯТНОСТЕЙ 27 лению четного числа очков—благоприятны три случая: 2, 4. 6 и не благоприятны остальные три. Если опыт сводится к схема случаев, то вероятность события А в данном опыте можн£ оценить по относительной доле благоприят- ных случаев. Вероятность события А вычисляется как отношение числа благоприятных случаев к общему числу’ случаев: Р(-4)=”. (2.2.1) где Р(А) — вероятность события А; п — общее число случаев; т — число случаев, благоприятных событию А. Так как число благоприятных случаев всегда заключено между О и л (0 — для невозможного ил — для достоверного события), то вероятность события, вычисленная по формуле (2.2.1), всегда есть рациональная правильная дробь: 0<Р(Л)<1. (2.2.2) Формула (2.2.1), так называемая «классическая формула» для вы- числения вероятностей, долгое время фигурировала в литературе как определение вероятности. В настоящее время прн определении (по- яснении) понятия вероятности обычно исходят из других принципов, непосредственно связывая понятие вероятности с эмпирическим поня- тием частоты; формула же (2.2.1) сохраняется лишь как формула для непосредственного подсчета вероятностей, пригодная тогда и только тогда, когда опыт сводится к схеме случаев, т. е. обладает симметрией возможных исходов. Пример 1. В урне находится 2 белых и 3 черных шара. Из урны на- угац вынимается один шар. Требуется найти вероятность того, что этот шар будет белым. Решение. Обозначим А событие, состоящее в появлении белого шара. Общее число случаев п = 5; число случаев, благоприятных событию Л, т = 2. Следовательно, о Пример 2. В урне а белых и b черных шаров. Из урны вынимаются два шара. Найтн вероятность того, что оба шара будут белыми. Решение. Обозначим В событие, состоящее в появлении двух белых шаров. Подсчитаем общее число возможных случаев п и число случаев т благоприятных событию В: 9 « = Са^; т = С^‘); следовательно, С2 _______________ Ca+ft 9 Знаком Сд обозначено число сочетаний из k элементов по I
28 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ ТГЛ- 2 Пример 3. В партии из N изделии М бракованных. Из партии выби- рается наугад п изделий. Опрсделчть вероятное гь того, что среди этих п изделий будет ровно т бракованных. Решение. Общее число случаев, очевидно, равно Cfo число благо- приятных случаев откуда вероятность интересующего нас события CJWu Р(Л)= д " и. 2.3. Частота, или статистическая вероятность, события Формула (2.2.1) для непосредственного подсчета вероятностей применима только, когда опыт, в результате которого может по- явиться интересующее нас событие, обладает симметрией возможных исходов (сводится к схеме случаев). Очевидно, что далеко не всякий опыт может быть сведен к схеме случаев, и существует обширный класс событий, вероятности которых нельзя вычислить по формуле (2.2.1). Рассмотрим, например, неправильно выполненную, несимме- тричную игральную кость. Выпадение определенной грани уже не будет характеризоваться вероятностью gi вместе с тем ясно, что для данной конкретной несимметричной кости выпадение этой грани обладает некоторой вероятностью, указывающей, насколько часто в среднем должна появляться данная грань при многократном бросании. Очевидно, что вероятности таких событий, как «попадание в цель при выстреле», «выход из строя радиолампы в течение од- ного часа работы» или «пробивание брони осколком снаряда», так- же не могут быть вычислены по формуле (2.2.1), так как соот- ветствующие опыты к схеме случаев не сводятся. Вместе с тем ясно, что каждое из перечисленных событий обладает определенной сте- пенью объективной возможности, которую в принципе можно изме- рить численно и которая при повторении подобных опытов будет отражаться в относительной частоте соответствующих событий. По- этому мы будем считать, что каждое событие, связанное с массой однородных опытов.—сводящееся к схеме случаев или нет, — имеет определенную вероятность, заключенную между нулем и единицей. Для событий, сводящихся к схеме случаев, эта вероятность может быть вычислена непосредственно по формуле (2.2.1). Для событий, не сводящихся к схеме случаев, применяются другие способы опре- деления вероятностей. Все эти способы корнями своими уходят В опыт, в эксперимент, и для того чтобы составить представление об этих способах, необходимо уяснить себе понятие частоты собы- тия и специфику той органической связи, которая существует между вероятностью и частотой. Если произведена серия из п опытов» в каждом из которых могло появиться или не появиться некоторое событие А, то частотой
2-31 ЧАСТОТА. ИЛИ СТАТИСТИЧЕСКАЯ ВЕРОЯТНОСТЬ. СОБЫТИЯ 29 события А в данной серии опыт'ов называется отношение числа опы- тов. в которых появилось событие А, к общему числу произведен- ных опытов. Частоту события часто называют его статистической вероят- ностью (в отличие от ранее введенной «математической» вероятности). Условимся обозначать частоту (статистическую вероятность) со- бытия А знаком Р*(Л). Частота события вычисляется на основании результатов опыта по формуле />(Л)=—, (2.3.1) где т — число появлений события А; п — общее число произведен- ных опытов. При небольшом числе опытов частота события носит в значи- тельной мере случайный характер и может заметно изменяться от одной группы опытов к другой. Например, при каких-то десяти бро- саниях монеты вполне возможно, что герб появится только два раза (частота появления герба Судет равна 0,2); при других десяти бро- саниях мы вполне можем получить 8 гербов (частота 0.8). Однако при увеличении числа опытов частота события все более теряет свой случайный характер; случайные обстоятельства, свойственные каж- дому отдельному опыту, в массе взаимно погашаются, и частота проявляет тенденцию стабилизироваться, приближаясь с незначитель- ными колебаниями к некоторой средней, постоянной величине. На- пример, при многократном бросании монеты частота появления герба будет лишь незначительно уклоняться от . Это свойство «устойчивости частот», многократно проверенное экспериментально и подтверждающееся всем опытом практической деятельности человечества, есть одна из наиболее характерных за- кономерностей. наблюдаемых в случайных явлениях. Математическую формулировку этой закономерности впервые дал Я- Бернулли в своей теореме, которая представляет собой простейшую форму закона больших чисел. Я. Бернулли доказал, что при неограниченном уве- личении числа однородных независимых опытов с практической до- стоверностью можно утверждать, что частота события будет сколь угодно мало отличаться от его вероятности в отдельном опыте, Связь между частотой события и его вероятностью — глубокая, органическая связь. Эги два понятия по существ}' неразделимы. Дей- ствительно, когда мы оцениваем степень возможности какого-либо события, мы неизбежно связываем эту оценку с большей или мень- шей частотой появления аналогичных событий на практике. Характе- ризуя вероятность события каким-то числом, мы не можем придать этому числу иного реального значения и иного практического смысла, чем относительная частота появления данного события при большом числе опытов. Численная Оценка степени возможности событии
30 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1ГЛ 2 посредством вероятности имеет практический смысл именно потому, что более вероятные события происходят в среднем чаще, чем менее вероятные. II если практика определенно указывает на то. что при увеличении числа опытов частота события имеет тенденцию выравни- ваться, приближаясь сквозь ряд случайных уклонений к некоторому постоянному числу, естественно предположить» что это число и есть вероятность события. Проверить такое предположение мы. естественно, можем только для таких событий, вероятности которых могут быть вычислены не- посредственно, т- е. для событий, сводящихся к схеме случаев, так как только дтл этих событий существует точный способ вычисления математический вероятности. Многочисленные опыты, производившиеся со врелси возникновения теории вероятностей, действительно под- тверждаю г Это предположение. Они показывают, что для события, сводящегося к схеме случаев, частота события при увеличении числа опытов всегда приближается к его вероятности. Вполне естественно допуеппь, чго и для события, не сводящегося к схеме случаев, тот же закон остается в силе и что постоянное значение, к которому при увеличении числа опытов приближается частота события, пред- ставляет собой не что иное, как вероятность события. Тогда частоту события при достаточно большом числе опытов можно принять за приближенное значение вероятности. Так и поступают на практике, определяя из опыта вероятности событий, не сводящихся к схеме случаев. Следует отметить, что характер приближения частоты к вероят- ности при увеличении числа опытов несколько отличается от «стрем- ления к пределу» в математическом смысле слова. Когда в математике мы говорим, что переменная хп с возраста- нием л стремится к постоянному проделу а. то это означает, что разность |.vn— л| становится меньше любого положительного числа е для всех значений л. начиная с некоторого достаточно большого числа. Относительно частоты события и его вероятности такого кате- горического утверждения сделать нельзя. Действительно, нет ничего физически невозможного в том, что при большом числе опытов ча- стота события будет значительно уклоняться от его вероятности; но такое значительное уклонение является весьма маловероятным, тем менее вероятным, чем большее число опытов произведено. На- пример, при бросании монеты 10 раз физически возможно (хотя и маловероятно), что все 10 раз появится герб, и частота появления герба будет равна I; при 1000 бросаниях такое событие все еще остается физически возможным, но приобретает настолько малую ве- роятность, что его смело можно считать практически неосуществи- мым. Таким образом, при возрастании числа опытов частота прибли- жается к вероятности, но не с полной достоверностью, а с большой
2.3] ЧАСТОТА. ИЛИ СТАТИСТИЧЕСКАЯ ВЕРОЯТНОСТЬ. СОБЫТИЯ 31 вероятностью, которая при достаточно большом числе опытов может рассматриваться как практическая достоверность. В теории вероятностей чрезвычайно часто встречается такой ха- рактер приближения одних величин к другим, и для его описания введен специальный термин: «сходимость по вероятности». Говорят, что величина Х„ сходится по вероятности к вели- чине а, если при сколь угодно малом е вероятность неравенства |А'„ — с]<е с увеличением п неограниченно приближается к единице. Применяя этот термин, можно сказать, что при увеличении числа Опытов частота события ие «стремится» к вероятности события, а «сходится к ней по вероятности». Это свойство частоты и вероятности, изложенное здесь пока без достаточных математических оснований, просто на основании прак- тики и здравого смысла, составляет содержание теоремы Бер- нулли, которая будет доказана нами в дальнейшем (см. гл. 13). Таким образом, вводя понятие частоты события и пользуясь связью между частотой и вероятностью, мы получаем возможность приписать определенные вероятности, заключенные между нулем и единицей, не только событиям, которые сводятся к схеме случаев, но н тем событиям, которые к этой схеме не сводятся; в последнем случае вероятность события может быть приближенно определена по частоте события при большом числе опытов. В дальнейшем мы увидим, что для определения вероятности со- бытия, не сводящегося к схеме случаев, далеко не всегда необхо- димо непосредственно определять из опыта его частоту. Теория ве- роятностей располагает многими способами, позволяющими опреде- лять вероятности событий косвенно, через вероятности других собы- тий, с ними связанных. В сущности, такие косвенные способы и со- ставляют основное содержание теории вероятностей. Однако и при таких косвенных методах исследования в конечном счете все же при- ходится обращаться к экспериментальным данным. Надежность и объективная ценность всех практических расчетов, выполненных с применением аппарата теории вероятностей, определяется качеством и количеством экспериментальных данных, на базе которых этот расчет выполняется. Кроме того, при практическом применении вероятностных ме- тодов исследования всегда необходимо отдавать себе отчет в том, действительно ли исследуемое случайное явление принадлежит к ка- тегории массовых явлений, для которых, по крайней мере на неко- тором участке времени, выполняется свойство устойчивости частот. Только в этом случае имеет смысл говорить о вероятностях собы- тий. имея в виду не математические фикции, а реальные характери- стики случайных явлений. Например, выражение «вероятность поражения самолета в воз- душном бою для данных условий равна 0,7» имеет определенный
32 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕН 1ГЛ. а конкретный смысл, потому что воздушные бои мыслятся как массо- вые операции, которые будут неоднократно повторяться в приблизи- тельно аналогичных условиях. Напротив, выражение «вероятность того, что данная научная про- блема решена правильно, равна 0.7» лишено конкретного смысла, и было бы методологически неправильно оценивать правдоподобие научных положений метонами теории вероятностей. 2.4. Случайная величина Одним из важнейших основных понятий теории вероятностей является понятие о случайной величине. Случайной величиной называется величина, которая в резуль- тате опыта может принять то или иное значение, причем неизвестно варанее. какое именно. Примеры случайных величин: 1) число попаданий при трех выстрелах; 2) число вызовов, поступавших на телефонную станцию за сутки; 3) частота попадания при Ю выстрелах. Во всех трех приведенных примерах случайные величины могут принимать отдельные, изолированные значения, которые можно за- ранее перечислить. Так, в примере 1) эти значения: 0. 1, 2. 3; в примере 2): I, 2. 3, 4. ...; в примере 3): 0; 0,1; 0,2; 1.0. Такие случайные величины, принимающие только отделенные друг от друга значения, которые можно заранее перечислить, называются прерывными или дискретными случайными величинами. Существуют случайные величины другого типа, например: 1) абсцисса точки попадания при выстреле; 2) ошибка взвешивания тела на аналитических весах; 3) скорость летательного аппарата в момент выхода на заданную высоту; 4) вес наугад взятого зерна пшеницы. Возможные значения таких случайных величин не отделены друг от друга; они непрерывно заполняют некоторый промежуток, кото- рый иногда имеет резко выраженные границы, а чаще — границы неопределенные, расплывчатые. Такие случайные величины, возможные значения которых непре- рывно заполняют некоторый промежуток, называются непрерывными случайными величинами.
случайная величина 33 2*1 Понятие случайной величины играет весьма важную роль в тео- рии вероятностей. Если «классическая» теория вероятностей опери- ровала по преимуществу с событиями, то современная теория вероят- ностей предпочитает, где только возможно, оперировать со случай- ными величинами. Приведем примеры типичных для теория вероятностей приемов перехода от событий к случайным величинам. Производится опыт, в результате которого может появиться или не появиться некоторое событие А. Вместо события А можно рас- смотреть случайную величину X, которая равна I, если событие А происходит, и равна 0, если событие А не происходит. Случайная величина X, очевидно, является прерывной; она имеет два возмож- ных значения: 0 и 1. Эта случайная величина называется характе- ристической случайной величиной события А. На практике часто вместо событий оказывается удобнее оперировать их характеристи- ческими случайными величинами. Например, если производится ряд опытов, в каждом из которых возможно появление события А, то общее число появлений события равно сумме характеристических случайных величин события Л во всех опытах. При решении многих практиче- ских задач пользование таким приемом оказывается очень удобным» С другой стороны, очень часто для вычисления вероятности события ока- у зывается удобно связать это событие с какой-то непрерывной случайной ве- ---- личиной (или системой непрерывных величин). / R \ Пусть, например, измеряются коор- / / И \ динаты какого-то объекта О для того, —г---------7 ——1---------*® чтобы построить точку М, изобра- X / / жающую этот объект на панораме (раз- \ / / вертке) местности. Нас интересует со- Х' бытие А, состоящее в том, что ошиб- ----- ка /? в положении точки М не превзой- дет заданного значения г0 (рис. 2.4.1), Рис. 2.4.1. Обозначим X, У случайные ошибки в измерении координат объекта. Очевидно, событие А равносильно попаданию случайной точки М с координатами X, У в пределы круга радиуса г0 с центром в точке О. Другими словами, для выполнения собы- тия А случайные величины X и У должны удовлетворять неравенству № + Г!<г?. (2.4.1) Вероятность события А есть не что иное, как вероятность выпол- нения неравенства (2.4.1). Эта вероятность может быть определена, если известны свойства случайных величин X, У. 2 Теория всронтностей
34 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 2 Такая органическая связь между событиями и случайными вели- чинами весьма характерна для современной теории вероятностей, которая, где только возможно, переходит от «схемы событий» к «схеме случайных величин». Последняя схема сравнительно с пер- вой представляет собой гораздо более гибкий и универсальный аппа- рат для решения задач, относящихся к случайным явлениям. 2.6. Практически невозможные и практически достоверные события. Принцип практической уверенности В п° 2.2 мы познакомились с понятиями невозможного и досто- верного события. Вероятность невозможного события, равная нулю, и вероятность достоверного события, равная единице, занимают край- ние положения на шкале вероятностей. На практике часто приходится иметь дело не с невозможными и достоверными событиями, а с так называемыми «практически невоз- можными» и «практически достоверными» событиями. Практически невозможным событием называется событие, вероятность которого не в точности равна нулю, но весьма близка к нулю. Рассмотрим, например, следующий опыт: 32 буквы разрезной азбуки смешаны между собой; вынимается одна карточка, изображен- ная на ней буква записывается, после чего вынутая карточка воз- вращается обратно, и карточки перемешиваются. Такой опыт произ- водится 25 раз. Рассмотрим событие А, заключающееся в том, что после 25 выниманий мы запишем первую строку «Евгения Онегина»; «Мой дядя самых честных правил». Такое событие не является логически невозможным; можно под- / 1 125 считать его вероятность, которая равна I » н0 вп,|ДУ того что вероятность события А ничтожно мала, можно считать его практи- чески невозможным. Практически достоверным событием называется событие» ве- роятность которого не в точности равна единице, но весьма близка к единице. Если какое-либо событие А в данном опыте практически невоз- можно. то противоположное ему событие Д. состоящее в невыпол- нении события Д, будет практически достоверным. Таким образом, с точки зрения теории вероятностей все равно, о к<.ких событиях говорить: о практически невозможных или о практически достовер- ных, так как они всегда сопутствуют друг другу. Практически невозможные и практически достоверные события играют большую роль в теории вероятностей; на них основывается все практическое применение этой лауки.
2-Б] ПРАКТИЧЕСКИ НЕВОЗМОЖНЫЕ И ДОСТОВЕРНЫЕ СОБЫТИЯ 35 В самом деле, если нам известно, что вероятность события в дан- ном опыте равна 0,3, это еще нс дает нам возможности предсказать результат опыта. Но если вероятность события в данном опыте ни- чтожно мала или, наоборот, весьма близка к единице, это дает нам возможность предсказать результат опыта; в первом случае мы не будем ожидать появления события Л; во втором случае будем ожи- дать его с достаточным основанием. При таком предсказании мы руководствуемся так называемым принципом практической уве- ренности. который можно сформулировать следующим образом. Если вероятность некоторого события А в данном опыте Е весьма мала, то можно быть практически уверенным в том, что при однократном выполнении опыта Е событие А не произойдет. Иными словами, если вероятность события А в данном опыте весьма мала, то, приступая к выполнению опыта, можно организовать свое поведение так, как будто это событие вообще невозможно, т. е. не рассчитывая совсем на его появление. В повседневной жизни мы непрерывно бессознательно пользуемся принципом практической уверенности. Например, выезжая в путеше- ствие по железной дороге, мы все свое поведение организуем, не считаясь с возможностью железнодорожной катастрофы, хотя неко- торая, весьма малая, вероятность такого события все же имеется. Принцип практической уверенности не может быть доказан мате- матическими средствами; он подтверждается всем практическим опы- том человечества. Вопрос о том, насколько мала должна быть вероятность события, чтобы его можно было считать практически невозможным, выходит за рамки математической теории и в каждом отдельном случае ре- шается из практических соображений в соответствии с той важностью, которую имеет для нас желаемый результат опыта. Например, если вероятность отказа взрывателя при выстреле равна 0,01, мы еще можем помириться с этим и считать отказ взры- вателя практически невозможным событием. Напротив, если вероят- ность отказа парашюта при прыжке также равна 0,01. мы, очевидно, не можем считать этот отказ практически невозможным событием и должны добиваться большей надежности работы парашюта. Одной из важнейших задач теории вероятностей является выявле- ние практически невозможных (или практически достоверных) собы- тий, дающих возможность предсказывать результат опыта, и выявле- ние условий, при которых те или иные события становятся практи- чески невозможными (достоверными). Существует ряд теорем теории вероятностей — так называемых предельных теорем, в которых уста- навливается существование событий, становящихся практически невозможными (достоверными) при увеличении числа опытов или при увеличении числа случайных величин, участвующих в задаче.
36 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 2 Примером такой предельной теоремы является уже сформулированная выше теорема Бернулли (простейшая форма закона больших чисел). Согласно теореме Бернулли при большом числе опытов событие, заключающееся в том, что разность между частотой события и его вероятностью сколь угодно мала, становится практически достоверным. Наряду с практически невозможными (достоверными) событиями, которые позволяют с уверенностью предсказывать исход опыта, не- смотря на наличие случайности, в теории вероятностей большую роль играют особого типа случайные величины, которые, хотя и являются случайными, но имеют такие незначительные колебания, что практи- чески могут рассматриваться как не случайные. Примером такой «почти не случайной» величины может служить частота события при большом числе опытов. Эта величина, хотя и является случайной, но при большом числе опытов практически может колебаться только в очень узких пределах вблизи вероятности события. Такие «почти не случайные» величины дают возможность пред- сказывать численный результат опыта, несмотря на наличие в нем элементов случайности, оперируя с этим результатом столь же уве- ренно, как мы оперируем с данными, которые доставляются обыч- ными методами точных наук.
ГЛАВА 3 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 3.1. Назначение основных теорем. Сумма и произведение событий В предыдущей главе мы познакомились со способами непосред- ственного определения вероятностей, а именно: с классической фор- мулой для вероятности событии, сводящегося к схеме случаев, и со способом приближенного определения вероятности по частоте для события, которое к схеме случаев не сводится. Однако не эти непо- средственные способы являются основными в теории вероятностей: их применение не всегда удобно и не всегда возможно. Даже когда событие светится к схеме случаев, зачастую эта схема бывает слишком сложна, и непосредственный подсчет вероятности по фор- муле (2.2 В становится чрезмерно громоздким. Что касается событий, не сводящихся к схеме случаев, то и их вероятности лишь в ред- ких случаях определяются непосредственно но частотам. На практике обычно требуется определять вероятности событий, непосредствен- ное экспериментальное воспроизведение которых затруднено. Напри- мер, если требуется определить вероятность поражения самолета в воздушном бою, ясно, что определение этой вероятности по ча- стоте практически невозможно. И не только потому, что такие опыты оказались бы непомерно сложными и дорогостоящими, а еще и потому, что часто нам требуется оценить вероятность того или иного исхода боя не для существующих образцов техники, а для перспективных, проектируемых. Обычно такая оценка и произво- дится для того, чтобы выявить наиболее рациональные конструктив- ные параметры элементов перспективной техники. Поэтому, как правило, для определения вероятностей событий применяются ие непосредственные прямые методы, а косвенные, поз- воляющие по известным вероятностям одних событий определять вероятности других событий, с ними связанных. Вся теория вероят- ностей, в основном, и представляет собой систему таких косвенных методов, пользование которыми позволяет свести необходимый экспе- римент к минимуму.
38 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 Применяя эти косвенные методы, мы всегда в той или иной форме пользуемся основными теоремами теории вероятностей. Этих теорем две: теорема сложения вероятностей и теорема умно- жения вероятностей. Строго говоря, оба эти положения являются теоремами и могут быть доказаны только для событий, сводящихся к схеме случаев. Для событий, не сводящихся к схеме случаев, они принимаются аксиоматически, как принципы или постулаты. Перед тем как формулировать и доказывать основные теоремы, введем некоторые вспомогательные понятия, а именно понятия о сумме событий и произведении событий. Во многих областях точных наук применяются символические операции над различными объектами, которые получают свои назва- ния по аналогии с арифметическими действиями, рядом свойств кото- рых они обладают. Таковы, например, операции сложения и умно- жения векторов в механике, операции сложения и умножения матриц в алгебре и т. д. Эти операции, подчиненные известным правилам, позволяют не только упростить форму записей, но в ряде случаев существенно облегчают логическое построение научных выводов. Введение таких символических операций над событиями оказывается плодотворным и в теории вероятностей. Суммой двух событий А и В называется событие С, состоя- щее в выполнении события А или события В, или обоих вместе. Например, если событие А — попадание в цель при первом вы- стреле, событие В — попадание в цель при втором выстреле, то событие С = A-j-В есть попадание в цель вообще, безразлично прн каком выстреле — при первом, при втором или при обоих вместе. Если события А и В несовместны, то естественно, что появление обоих этих событий вместе отпадает, и сумма событий А и В сво- дится к появлению или события А, или события В. Например, если событие А — появление карты червонной масти при вынимании карты из колоды, событие В — появление карты бубновой масти, то С~ А-\-В есть появление карты красной масти, безразлично—чер- вонной или бубновой. Короче, суммой двух событий А и В называется событие С, состоящее в появлении хотя бы одного из событий Л и В. Суммой нескольких событий называется событие, состоящее в появлении хотя бы одного из этих событий. Например, если опыт состоит в пяти выстрелах по мишени и даны события: Ло —ни одного попадания, Д — ровно одно попадание, А2 — ровно два попадания, Л3 — ровно три попадания, — ровно четыре попадания, А-— ровно пять попаданий.
8-П СУММА И ПРОИЗВЕДЕНИЕ СОБЫТИЯ 39 есть событие «не более двух попаданий», а В = А + ^4 4“ А есть событие «не менее трех попаданий». Произведением двух событий А и В называется событие С, состоящее в совместном выполнении события А и события В. Например, если событие А — появление туза при вынимании карты нз колоды. событие В —появление карты бубновой масти, то собы- тие С s= АВ есть появление бубнового туза. Если производится два выстрела по мишени н событие А — попадание прн первом выстреле, событие В — попадание при втором выстреле, то С = АВ есть попадание при обоих выстрелах. П ро изведен нем нескольких событий называется событие, состоя- щее в совместном появлении всех этих событий. Например, если по мишени производится три выстрела н рассма- триваются события Вх — промах при первом выстреле, — промах прн втором выстреле, В3—промах при третьем выстреле, то событие состоит в том, что в мишень не будет ни одного попадания. Прн определении вероятностей часто приходится представлять сложные события в виде комбинаций более простых событий, при- меняя и операцию сложения, и операцию умножения событии. Например, пусть по мишени производится три выстрела и рас- сматриваются следующие элементарные события: Л1 — попадание при первом выстреле, Д — промах при первом выстреле. А-2—попадание прн втором выстреле, А, — промах прн втором выстреле, А3 — попадание при третьем выстреле, Л3— промах при третьем выстреле. Рассмотрим более сложное событие В. состоящее в том, что в результате данных трех выстрелов будет ровно одно попада- ние в мишень. Событие В можно представить в виде следующей комбинации элементарных событий: В = А} А2А3 —|— Событие (?, состоящее в том. что в мишень будет не минее двух попаданий, может быть представлено в виде:
40 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ (ГЛ. 3 Такие приемы представления сложных событий часто применяются в теории вероятностей. Непосредственно нз определения суммы и произведения событий следует, что Я-|-Д= А, АА = А. Если событие В есть частный Рис. 3.1.2. На рис. 3.1.2 аналогично событий. <чай события А. то Д-|-В = А; АВ = В. При пользовании понятиями суммы и произведения событий часто оказывается полезной на- глядная геометрическая интер- претация этих понятий. На рис. 3.1.1 наглядно иллюстрированы понятия суммы и произведения двух событий. Если событие А есть попада- ние точки в область А, соот- ветственно событие В — по- падание в область В, то событие Я 4-В есть попада- ние в область, заштрихован- ную на рис. 3.1.1, а), а собы- тие ZS — в область, заштри- хованную на рис. 3.1.1.б). мы сумма и произведение трех 3.2. Теорема сложеиия вероятностей Теорема сложения вероятностей формулируется следующим образом. Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий'. Р(А-\-В) = Р(А) + Р(В). (3.2.1) Докажем теорему сложения вероятностей для схемы случаев. Пусть возможные исходы опыта сводятся к совокупности случаев, которые мы для наглядности изобразим в виде п точек: т~ A k — В п
8 2] ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ 41 Предположим, что из этих случаев т благоприятны событию Д, a k—событию В. Тогда ₽(/)="'; Р(В) = ^. Так как события Я и В несовместны, то нет таких случаев, которые благоприятны и А. и В вместе. Следовательно, событию Д-Р .В благоприятны m-p/г случаев и Р(Л + В) = -^±^, Подставляя полученные выражения в формулу (3.2.1), получим тождество. Теорема доказана. Обобщим теорему сложения на случай трех событий. Обозначая событие А -Р В буквой D и присоединяя к сумме еще одно собы- тие С, легко доказать, что Р(Д-рВ-рС) = Р(О-РС) = Р(£))-рР(С) = = Р (А -р- В) + Р (С) = Р (А) -р Р (В) + Р (С). Очевидно, методом полной индукции можно обобщить теорему сложения на произвольное число несовместных событий. Действи- тельно. предположим, что она справедлива для п событий: Я,. А2, .... Аа, и докажем, что она будет справедлива для п ~Р I событий; А* А......A+V Обозначим; А + А + ... -ря„ = С. Имеем: Р(Д, + А»+ ... +Ля+4+1)^Р(С+Ля+1)=Р(С)-РР(Лж). Но так как для п событий мы считаем теорему уже доказанной, то Р(С) = Р(Л1) + Р(Аг)+ ... +₽(Л„). откуда Р(А + А4" — + A»“bAi+i) = = Р(д1)-рР(Л2)-р ... -рР(Дя)Ч-Р(Дл+1). что и требовалось доказать. Таким образом, теорема сложения вероятностей применима к лю- бому числу несовместных событий. Ее удобно записать в виде: ^ = S₽(A)- (3.2.2)
42 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 Отметим следствия, вытекающие из теоремы сложения вероят- ностей. Следствие 1, Если события Лр А,_________ Ап образуют пол- ную группу несовместных событий, то сумма их вероятностей равна единице: 2p(A) = i. 1 = 1 Доказательство. Так как события А,, А2......образуют полную группу, то появление хотя бы одного из них.— достоверное событие: Р(Д| + Л2+ ... +/и=1. Так как Др А2, .... А„ — несовместные события, то к ним приме- нима теорема сложения вероятностей р (А + А7 -г ... 4- А„) = Р (А,) + Р (А) 4- ... -г Р(А„) = У Р (Л,), откуда 1р(Л)=1. 1-1 что и требовалось доказать. Перед тем как вывести второе следствие теоремы сложения, определим понятие о «противоположных событиях». Противоположными событиями называются два несовместных события, образующих полную группу. Событие, противоположное событию А, принято обозначать Л. Примеры противоположных событий. 1) А — попадание при выстреле, Д — промах при выстреле; 2) В — выпадение герба при бросании монеты, В — выпадение цифры при бросании монеты; 3) С — безотказная работа всех элементов технической системы, С — отказ хотя бы одного элемента; 4) D — обнаружение не менее двух бракованных изделий в конт- рольной партии» D — обнаружение ле более одного бракованного изделия. Следствие 2. Сумма вероятностей противоположных событий равна единице: Р(Д) + Р(А) = 1. Это следствие есть частный случай следствия 1. Оно выделено особо ввиду ею большой важности в практическом применении теории вероятностей. На практике весьма часто оказывается легче вычислить
82] ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ 43 вероятность противоположного события А. чем вероятность прямого события А. *В этих случаях вычисляют Р(Д) и находят Р(А) = 1 — Р (А). Рассмотрим несколько примеров на применение теоремы сложения и ее следствий. Пример 1. В лотерее 1000 билетов; из них на одни билет падает выигрыш 500 руб., на 10 билетов — выигрыши по 100 руб., на 50 билетов — выигрыши по 20 руб., на 100 билетов — выигрыши по 5 руб., остальные билеты невыигрышные. Некто покупает один билет. Найти вероятность выиграть не менее 20 руб. Решение. Рассмотрим события: А —выиграть не менее 20 руб., Д|—выиграть 20 руб., Аа — выиграть 100 руб., Да— выиграть 500 руб. Очевидно. По теореме сложения вероятностей Р (И) = Р (Л)) -f- Р (А2) + Р (Д3) = 0,050 4-0,010 + 0.001 = 0.061. Пример 2. Производится бомбометание по трем складам боеприпасов, причем сбрасывается Одна бомба. Вероятность попадания в первый склад 0,01; во второй 0,008; в третий 0,025. При попадании в один из склалоз взры- ваются все три. Найти вероятность того, что склады будут взорваны. Решение. Рассмотрим события: А —взрыв складов, А— попадание в первый склад, Ая — попадание во второй склад, Аз — попадание в третий склад. Очевидно, И =: А\ 4~ Аа 4~ Дэ= Так как при сбрасывании одной бомбы события Др /2, Дя несовместны, то Р (А) = Р (А)+р (А) 4- Р W = = 0,01 4- 0,008 4-0,025 = 0,043. Пример 3. Круговая мишень (рис. 3.2.1) состоит из трех зон: /, II и III. Вероятность попадания в первую зону при одном выстреле 0,15, во вторую 0,23, в третью 0,17. Найти вероятность промаха. Решеиие. Обозначим А — промах, А — попадание. Тогда _ _ А = Д] 4- Аа 4~ Да» где А» А» А— попадание соответственно в первую, вторую и третью зоны Р (Д) = р (Д) 4-Р (А) 4- Р (А) = 0,15 4-0,234-0,17 = 0,55, откуда Р(Д) = 1 — Р (А) = 0,45.
44 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1ГЛ. 1 Как уже указывалось, теорема сложения вероятностей (3.2.1) справедлива только Для несовместных событий. В случае, когда со- бытия Я и В совместны, вероятность суммы этих событий выражается формулой Р ( Д 4- В) = Р ( Д) 4- Р (В>— Р (АВ). (3.2.3) В справедливости формулы (3.2.3) можно наглядно убедиться, рас- сматривая рис. 3.2.2. Рис. 3.2.2. Рис. 3.2.3. Аналогично вероятность суммы трех совместных событий вы- числяется по формуле = Р(Л)4-Р(В)4-Р(С) — Р(ДВ) — Р(АС) — Р(ВС)-\-Р(АВС). Справедливость этой формулы также наглядно следует из геометри- ческой интерпретации (рис. 3.2.3). Методом полной индукции можно доказать общую формулу для вероятности суммы любого числа совместных событий: pfjk а) = 2 Р (А) - 2 Р <AAj) + 2Л Р(A- ... ... +(-!)” Р(Л,А ••• А). (3.2 4) где суммы распространяются иа различные значения индексов /; I, J; i, J, А, и т. д. Формула (3.2.4) выражает вероятность суммы любого числа собы- тий через вероятности произведений этих событий, взятых по одному, по два, по три и т. д. Аналогичную формулу можио написать для произведения собы- тий. Действительно, из рис. 3.2.2 непосредственно ясно, что Р(ДВ) = Р(Д)4-Р(В) —Р(Д4-В). (3.2.5) Из рис. 3.2.3 видно, что Р (АВС) = Р(А) 4- Р (В) + Р (С) — Р (Д 4-В) — — Р(А + О — Р(В4-С) + Р(Л + В + С). (3.2.6)
3 3] ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ 45 Общая формула, выражающая вероятность произведения произ- вольного числа событий через вероятности сумм этих событий, взя- тых по одному, пэ два, ио три и т. д., имеет вид: рм,л. ... л,) = у 2 Р(Л+а,)+ ' ‘ 1.1 + 2 Р<А + А+Л)4-...+(— 1)" ‘Р(Л, + ...+Л„). (3.2.7) Г, ), к Формулы типа (3.2.4) и (3.2.7) находят практическое применение при преобразовании различных выражений, содержащих вероятности сумм и произведений событий. В зависимости от специфики задачи в некоторых случаях удобнее бывает пользоваться только суммами, а в других только произведениями событий: для преобразования одних в другие и служат подобные формулы. Пример. Техническое устройство состоит из трех агрегатов: двух агрегатов первого типа — Л( н Аа — и одного агрегата второго типа — В. Агрегаты Д и Л2 дублируют друг друга: прн отказе одного из них про- исходит автоматическое переключение на второй. Агрегат В не дублирован. Для того чтобы устройство прекратило работу (отказдло), нужно, чтобы одновременно отказали оба агрегата Л| и А2 «ли же агрегат В. Таким обра- зом, отказ устройства — событие С — представляется в виде: С = Л1Ла4-В, где At— отказ агрегата Л„ А3 — отказ агрегата Аа, В — отказ агрегата В. Требуется выразить вероятность события С через вероятности событий, содержащих только суммы, а не произведения элементарных событий А., А2 и В. Решение. По формуле (3.2.3) имеем: Р (Q = Р (Л,Л2) + Р(В) - Р (А^ (32.8) по формуле (3.2.5) Р(Д, 10^Р(Л|)Ч-/’(Л2)-Р(Лк+Ла).- по формуле (3.2.6) /’(Л1А2Й) = Р(Л1)4-/’(И2) + Р(В)-Р(Л1+Д2)- -Р(А + В)-/3(Л+В) + /э(Л|+Л2 + В). Подставляя эти выражения в (3.2.8) и производя сокращения, получим; Р(С) = Р(Л1 + В) + В(Л2-ЬЙ)-Р(Л14-Л24-й). 3.3. Теорема умножения вероятностей Перед тем как излагать теорему умножения вероятностей, введем еще одно важное понятие: понятие о независимых и зависимых со- бытиях. Событие Я называется независимым от события В, если ве- роятность события Я не зависит от того, произошло событие В или нет.
46 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. fl Событие А называется зависимым от события В, если вероят- ность события А меняется в зависимости от того, произошло собы- тие В или нет. Рассмотрим примеры. 1) Опыт состоите бросании двух монет; рассматриваются события; А — появление герба на первой монете, В — появление герба на второй монете. В данном случае вероятность события А не зависит от того, произошло событие В или нет; событие А независимо от со- бытия В. 2) В урне даа белых шара и один черный; два лица вынимают из урны по одному шару; рассматриваются события: А — появление белого шара у 1-го лица, В — появление белого шара у 2-го лица. Вероятность события А до того, как известно что-либо о собы- тии В, равна у. Если стало известно, что событие В произошло, то вероятность события А становится равной • нз чего заключаем, что событие А зависит от события В. Вероятность события А, вычисленная при условии, что имело место другое событие В. называется условной вероятностью события А и обозначается Р(Л|В). Для условий последнего примера Р(Л) = |; Р(Д|В)=|.’ Условие независимости события Я от события В можно записать в виде: Р(Д]В) = Р(Д), а условие зависимости — в виде: Р(А\В) =Р Р(А). Перейдем к формулировке и доказательству теоремы умножения вероятностей. Теорема умножения вероятностей формулируется следующим образом. Вероятность произведения двух событий равна произведе- нию вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое имело место: Р (АВ) = Р (А) Р (В | А). (3.3.1)
8.31 ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ 47 Докажем теорему умножения для схемы случаев. Пусть возможные исходы опыта сводится к п случаям, которые мы снова для нагляд- ности изобразим в виде п точек; k~B т~ А .------------ АВ п Предположим, что событию А благоприятны т случаев, а собы- тию В благоприятны k случаев. Так как мы не предполагали собы- тия А и В несовместными, то вообще существуют случаи, благо- приятные и событию Л, и событию В одновременно. Пусть число таких случаев I. Тогда Вычислим Р(В\ /4). т. е. условную вероятность события В в предпо- ложении, что А имело место. Если известно, что событие А про- изошло, то из ранее возможных п случаев остаюгся возможными только те т, которые благоприятствовали событию Л. Из них I случаев благоприятны событию В. Следовательно, ₽(В|Л) = ^. Подставляя выражения Р(АВ). Р(А) и Р(В \ Д) в формулу (3.3.1), получим тождество. Теорема доказана. Очевидно, при применении теоремы умножения вполне безраз- лично, какое из событий А п В считать первым, а какое вторым, и теорему умножения можно записать н в таком виде; Р{АВ) — Р(В)Р(А\В). Отметим следствия. вытекающие из теоремы умножения. Следствие 1. Если событие А не зависит от события В, то и событие В не зависит от события А. Доказательство. Дано, что событие /1 не зависит от В, т. е. Р(А) =: Р(А \ В). (3.3.2) Требуется доказать, что и событие В не зависит от Л, т. е. Р(В) = Р(В| А). При доказательстве будем предполагать, что Р(Д)=#0.
48 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1ГЛ. 8 Напишем теорему умножения вероятностей в двух формах; Р(АВ) = Р(А)Р(В] Л). Р(АВ) = Р(В)Р(А\В), откуда Р(Л)Р(В[ Л) = Р(5)Р(Л|В) или, согласно условию (3.3.2). Р (X) Р (В | Л) = Р (В) Р (Л). (3.3.3) Разделим обе части равенства (3.3.3) на Р(Л). Получим: Р(В| Л)=Р(В), что и требовалось доказать. Из следствия 1 вытекает, что зависимость или независимость событий всегда взаимны. В связи с этим можно дать следующее новое определение независимых событий. Два события называются независимыми, если появление од- ного из них не изменяет вероятности появления другого. Понятие независимости событий может быть распространено на случай произвольного числа событий. Несколько событий называются независимыми, если любое из них не зависит от любой совокупности остальных. Следствие 2. Вероятность произведения двух независимых событий равна произведению вероятностей этих событий. Следствие непосредственно вытекает из Определения независимых событий. Теорема умножения вероятностей может быть обобщена на слу- чай произвольного числа событий. В общем виде она формули- руется так. Вероятность произведения нескольких событий равна произведе- нию вероятностей этих событий, причем вероятность каждого сле- дующего по порядку события вычисляется при условии, что все предыдущие имели место: р (А л2... л„)=р (л,) р (л21 л,) р (л31 л, а.) ... ...Р(Л„|Л,Л2... Л„_,). (3.3.4) Доказательство может быть дано тем же методом полной индукции. В случае независимых событий теорема упрощается и принимает вид: Р (А^ ... Ап) = Р (Д,) Р (Д2) ... Р (Ап), (3.3.5) т. е. вероятность произведения независимых событий равна произведению вероятностей этих событий. Применяя знак произведения, теорему можно записать в виде: p(JTI а) = ДР(ЛД (3.3.6)
8.31 ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ 49 Рассмотрим примеры на применение теоремы умножения вероят- ностей. Пример 1. В урие 2 белых и 3 черных шара. Из урны вынимают подряд два шара. Найти вероятность того, что оба шара белые. Решение. Обозначим: А — появление двух белых шаров. Событие А представляет собой произведение двух событий: А = А1Аа, где Ai — появление белого шара при первом вынимании, Ag — появление белого шара при втором вынимании. По теореме умножения вероятностей 2 1 Р (.4) = Р (ЛЭ Р (Л8М>) = у = 0,1. Пример 2. Те же условия, ио после первого вынимания шар возвра- щается в урну, и шары в урне перемешиваются. Решение. В данном случае события и Аа независимы и 2 2 Р(Л) = Р(Л)Р(А) = |-| = О,16. Пример 3. Прибор, работающий в течение времени t, состоит из трех узлов, каждый из которых, независимо от других, может в течение времени / отказать (выйти из строя). Отказ хотя бы одного узла приводит к отказу прибора в целом. За время t надежность (вероятность безотказной работы) первого узла равна /?, = 0,8; второго ра = 0,9; третьего = 0,7. Найти на- дежность прибора в целом. Ре шевие. Обозначая: А —безотказная работа прибора, А — безотказная работа первого узла, Аа — безотказная работа второго узла, А — безотказная работа третьего узла, имеем: А AjAgAjj, огкуда по теореме умножения для независимых событий Р\А) = Р (Л,) Р {Ag) Р (Ая) = pxpgPi = 0,504. На практике сравнительно редко встречаются задачи, в которых нужно применять только теорему сложения или только теорему умножения вероятностей. Обычно обе теоремы приходится применять совместно. При этом, как правило, событие, вероятность которого требуется определить, представляется в виде суммы нескольких не- совместных событий (вариантов данного события), каждое из иото- рых в свою очередь является произведением событий.
50 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1ГЛ- а Пример 4. Производится три выстрела по одной и той же мишени. Вероятности попадания при первом, втором и третьем выстрелах равны соответственно pt == 0,4; рз = 0,5; р3 = 0,7. Найти вероятность того, что в результате .этих трех выстрелов в мишени будет ровно одна пробоина. Решение. Рассмотрим событие А — ровно одно попадание в мишень. Это событие может осуществиться несколькими способами, т. е. распадается на несколько несовместных вариантов: может быть попадание при первом выстреле, промахи при втором и третьем; или же попадание при втором выстреле, промахи при первом и третьем; или, наконец, промахи при первом и втором выстрелах и попадание при третьем. Следовательно, Л = Л[ Л2Л3 —AjAgAg —1~ где Л], А2, А3 — попадание при первом, втором, третьем выстрелах. Лр Аа, Да — промах при первом, втором, третьем выстрелах. Применяя теоремы сложения и умножения вероятностей и пользуясь свойством противоположных событий, находим: Р (А) = Р (Л, лялэ) 4- Р (А Л2Д3) + Р (Ддл3) = = 0,4 • 0.5 0.3 4- 0.6 • 0,5 - 0.3 4- 0,6 0,5 0,7 = 0,36. Пример 5. В условиях предыдущего примера найти вероятность того, что в мишени будет хотя бы одна пробоина. Решение. Рассмотрим событие В — хотя бы одно попадание в мишень. Пользуясь тем же приемом, который был применен в предыдущем примере, и теми же обозначениями, можно представить событие В в виде суммы не- совместных вариантов: В А । А2А з 4“ А । А2А з 4~ Л । Л2Д3 4“ Д| Л 2 Д3 4— A i А2 Аз 4"~ А А2А3 4“ Л i А 3 Д3. найти вероятность каждого варианта по теореме умножения и все эти ве- ]оятности сложить. Однако такой путь решения задачи слишком сложен; здесь целесообразно от прямого события В перейти к противоположному: В — ии одного попадания в мишеиь. Очевидно. B = AtA2A}. По теореме умножения Р (В) = Р (Д ДЛэ) = 0.6 • 0.5 • 03 = 0.09, Откуда Р (В) = 1 — Р(В) = 1 — 0.09 = 0.91. На последнем примере проиллюстрирован принцип целесообраз- ности применения противоположных событий в теории вероятностей. Его можно сформулировать следующим образом. Если противоположное событие распадается на меньшее число вариантов, чем прямое событие, то имеет смысл при вычислении вероятностен переходить к противоположному событию.
S.3] ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕН 51 Пример 6. Происходит бой («дуэль») между двумя участниками (ле- тательными аппаратам,1, танками, кораблями) А и В. У стороны А в запасе два выстрела, у стороны В — один. Начинает стрельбу Л: он делает по В одни выстрел н поражает его с вероятностью 0,2. Если В не поражен, ои отвечает противнику выстрелом н поражает его с вероятностью 0,3. Если Л этим выстрелом нс поражен, то он делает по В свой последний выстрел, которым поражает его с вероятностью ОД. Нзйгн вероятность тою, что в бою будет поражен: а) участник Л, б) участник В. Решение. Рассмотрим события: Л — поражение участника Л, В — поражение участника В. Для выполнения события Л необходимо совмещение (произведение) двух событий: 1) Л не пор,-зил В первым выстрелом и 2) В поразил Л г ^им ответным выстрелом. По теореме умножения вероятностей получим Р (Л) = 0,8 -0,3 = 0,24. Перейдем к событию В. Оно, очевидно, состоит из двух несовместных вариантов: В = Вх + ва, где в|—поражение участника В первым выстрелом Л, В? — поражение участника В вторым выстрелом Л. По теореме сложения вероятностей Р(Й) = Р(Й,) + Р(Ва). По условию Р(В}")~0,2. Что касается события В2, то оно представляет собой совмещение (произведение) трех событий, а именно: 1) первый выстрел стороны Л не должен поразить В\ 2) ответный выстрел стороны В не должен поразить Л; 3) последний (второй) выстрел стороны А должен поразить В. По теореме умножения вероятностей Р (Ва) = 0,8 - 0,7 0,4 = 0,224, откуда Р (В) = 0,2 4- 0,224 = 0,424. Пример 7. Цель, по которой ведется стрельба, состоит из трех раз- личных по уязвимости частей. Для поражения цели достаточно Одного по- падания в первую часть, или двух попадания во вторую, или трех попаданий в третью. Если снаряд попал в цель, то вероятность ему попасть в ту или другую часть пропорциональна площади этой части. На проекции цели на плоскость, перпендикулярную направлению стрельбы, первая, вторая и третья части занимают относительные площади ОД, 0,2 и 0,7. Известно, что в цель попало ровно два снаряда. Найти вероятность того, что цель будет поражена. Решение. Обозначим А— поражение цели; Р(Л|2)— условную ве- роятность поражения цели при условии, что в нее попало ровно два сна- ряда. Два снаряда, попавшие в цель, могут поразить ее двумя, способами: или хотя бы один из них попадает в первую часть, или же оба снаряда попадут во вторую. Эти варианты несовместны, так как в цель попало всего два снаряда; поэтому можно применить теорему сложения. Вероятность того, что хотя бы один снаряд попадет в первую часть, может быть вычис- лена через вероятность противоположного события (ни один из двух сна- рядов не попадет в первую часть) и равна 1 — 0,92. Вероятность того, что оба снаряда попадут во вторую часть, равна 0,2а. Следовательно, Р (А12) = 1 — О,92 Д- 0,22 = 0,23,
52 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 Пример 8. Для условий предыдущего примера найти вероятность поражения цели, если известно, что в .нее попало три снаряда. Решение. Решим задачу двумя'способами: через прямое и противо- положное событие. Прямое событие — поражение цели при трех попаданиях — распадается иа четыре несовместных варианта: Л! — хотя бы одно попадание в первую часть. Ля— два попадания во вторую часть и одно — в третью, Л3 —три попадания во вторую часть, Л4 — трн попадания в третью часть. Вероятность первого варианта находим аналогично предыдущему при- меру: Р(А) = 1—0,92 = 0,271. Найдем вероятность^ второго варианта. Три попавших снаряда могут распределиться по второй и третьей частям нужным образом (два во вторую и одни — в третью) тремя способами (С3 — 3) Следовательно, Р (Л,) = 3 • 0.2s. 0,7 = 0,084. Далее находим: Р (Ля) = 0,23 = 0,008, Р(Л4) = 0,73 = 0,343. Отсюда Р (Л 13) = 0,271 4- 0,084 + 0,008 + 0,343 = 0,706. Однако проще решается задача, если перейти к противоположному со- бытию— иепораженню цели при трех попаданиях. Это событие может осу- ществиться только одним способом: если два снаряда из трех попадут в третью часть, а одни —во вторую. Таких комбинаций может быть три = З), следовательно. Р(Л|3) = 3-0,7’- 0,2 = 0,294, откуда Р (Л |3) = 1 — 0,294 = 0,706. Пример 9. Монета бросается 6 раз. Найти вероятность того, что выпадет больше гербов, чем цифр. Решение. Для нахождения вероятности интересующего ндс события А (выпадет больше гербов, чем цифр) можно было бы перечислить все воз- можные его варианты, например; Л1— выпадет шесть гербов и ни одной цифры, Л2 — выпадет пять гербов и одна цифра и т. д. Однако проще будет применить другой прием. Перечислим все возмож- ные исходы опыта; А— выпадет больше гербов, чем цифр, В — выпадет больше цифр, чем гербов, С — выпйдст одинаковое число цифр и гербов. События Л, В, С несовместны и образуют полную группу. Следова- тельно, Р(Л)4-Р(е)+Р(С)=1.
8.3] ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ 63 Так как задача симметрична относительно «герба» и «цифры», откуда и Р(Л) = Р(В), 2Р(Л)4-Р(С)=1 Р(Л) = ^(О. Найдем вероятность события С, состоящего в том, что при шести бро- савиях монеты появится ровно три герба (а значит, ровно три цифры). Веро- ятность любого из вариантов события С (например, последовательности г, ц, г, г, ц, ц при шести бросаниях) одна и та же н равна ( j-j . Число таких комбинаций равно С| = 20 (числу способов, какими можно из шести броса- ний выбрать три, в которых появился герб). Следовательно, отсюда '<4(4)4 Пример 10. Прибор состоит из четырех узлов: Д. А3, Д, причем узел А2 дублирует Л„ а узел At дублирует узел Л3. При отказе (выходе из сгроя) любого из основных узлов (/( или Л3) происходит автоматическое переключение на дублирующий узел. Надежность (вероятность безотказной работы) в течение заданного времени каждого из узлов равна соответственно А. Ръ Рз. Pi- Надежность каждого из переключающих устройств равна р. Все элементы выходят из строя независимо друг от друга. Определить на- дежность прибора. Решение. Рассмотрим совокупность узлов А3 и соответствующего переключающего устройства как одни «обобщенный узел Й. а совокупность узлов Лэ, Л, и соответствующего переключающего устройства — как обоб- щенный узел С. Рассмотрим события: А — безотказная работа прибора, В — безотказная работа обобщенного узла В, С—безотказная работа обобщенного узла С. Очевидно, А = ВС, откуда Р(Л) = Р(В)Р(С). Найдем вероятность события В. Оно распадается иа два варианта: Л] — исправно работал узел Л, в А2 — узел А, отказал, но оказались исправными переключающее устройство и узел Ая, Имеем: р (В) = р (/ij 4- р (л') = р, + (1—Р1) рр2, аналогично Р (С) = р, + (1 — р,) рр„ откуда Р М) = 1а + (1 — ррЛ (₽,+ (• — а) ррЛ-
54 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ ггл. 3 3,4. Формула полной вероятности Следствием обеих основных теорем—теоремы сложения вероят- ностей и теоремы умножения вероятностей — является так называемая формула полной вероятности. Пусть требуется определить вероятность некоторого события А, которое может произойти вместе с одним из событий: «1. Н2.....н„. образующих полную группу несовместных событий. Будем эти собы- тия называть гипотезами. Докажем, что в этом случае Р(Л)=У Р(//,)Р(Л|//,). (3.4.1) 1=1 т. е. вероятность события А вычисляется как сумма произведений вероятности каждой гипотезы на вероятность события при этой ги- потезе. Формула (3.4.1) носит название формулы полной вероятности. Доказательство. Так как гипотезы Hv Н2..........Нп обра- зуют полную группу, то событие /1 может появиться только в ком- бинации с какой-либо из этих гипотез: А =Н1А^Н2А-+- ... +НпА. Так как гипотезы Нх, Н2....Нп несовместны, то и комбинации НХА. Нт А.....НПА также несовместны; применяя к ним теорему сложения, получим: Р(Л) = Р(Н,>1) + Р(НгЛ)+ ... +Р(/7„Л) = 2Р(Н,Л). Применяя к событию HtA теорему умножения, получим; P(/l)=2P(/7i)P(4|/71). 1=1 что и требовалось доказать. Пример 1. Имеются три одинаковые иа вид урны; в первой урие два белых и один черный шар; во второй — три белых и один черный; в третьей — два белых и два черных шара. Некто выбирает наугад одну из урн и выни- мает из нее шар. Найти вероятность того, что этот шар белый. Решение. Рассмотрим три гипотезы. Н[ — выбор первой урны, Н2-выбор второй урны. Н3— выбор третьей урны и событие А — появление белого шара.
3.4] ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ 55 Так как гипотезы, по условию задачи, равновозможпы, то Условные вероятности события А при этих гипотезах соответственно равны: Р(Л|Я,) = |; = Р(Л|Л/,)=/;. По формуле полной вероятност РМЧ-1.1 .1.1.1.1-23 3 + 3 4'3 2 36' Пример 2. По самолету производится три одиночных выстрела. Ве- роятность попадания при первом выстреле равна 0,4, при втором-—0,5, прн третьем — 0,7. Для вывода самолета из строя заведомо достаточно трех по- паданий; ври одном попадании самолет выходит из строя с вероятностью0,2, прн двух попаданиях с вероятностью 0,6. Найти вероятность того, что в ре- зультате трех выстрелов самолет будет выведен из строя. Решение. Рассмотрим четыре гипотезы; /Ус — в самолет не попало пи одного снаряда, Hi—в самолет попал один снаряд. Н2— в самолет попало два снаряда, Л/з— в самолет лопало три снаряда. Пользуясь теоремами сложения и умножения, найдем вероятности этих гипотез: Р(7/о) = 0,6-0,5-0.3 = 0,09; Р (Н}) = 0,4 • 0,5 0.3 + 0,6 • 0,5 - 0,3 4- 0,6 - 0,5 - 0,7 = 0,36; Р (Н2) = 0.6 0,5 • 0,7 4- 0,4 • 0,5 0,7 4- 0,4 • 0,5 • 0,3 = 0.41; Р (Нл) = 0,4 • 0,5 0,7 = 0.14. Условные вероятности события А (выход самолета из строя) при этих гипотезах равны: Р(Л|Яо) = 0; Р (А |Я,) = 0,2; Р (Л | Н2) = 0.6; Р(А | На) = 1,0. Применяя формулу полной вероятности, получим: Р (Л) = Р (Но) Р (А I Яо) 4- Р (Нх) Р (A I Hi) 4- Р (Я2) Р (Л IН7) 4- 4- Р (Нэ) Р (А I На) = 0,36 - 0,24- 0,41 • 0.6 4- 0,14 1,0 = 0,458. Заметим, что первую гипотезу Но можно было бы не вводить в рас- смотрение, так как соответствующий член в формуле полной вероятности обращается в нуль. Так обычно и поступают при применении формулы пол- ной вероятности, рассматривая не полную группу несовместных гипотез, а только те из них, при которых данное событие возможно. Пример 3. Работа двигателя контролируется двумя регуляторами. Рассматривается определенный период времени I, в течение которого жела- тельно обеспечить безотказную работу двигателя. При наличии обоих регу- ляторов двигатель отказывает с вероятностью ^1>2, при работе только пер- вого из иих—-с вероятностью прн работе только второго — с вероят- ностью q2' при отказе обоих регуляторов — с вероятностью qQ. Первый из регуляторов имеет надежность Р|( второй — Р2 Все элементы выходят из строя независимо друг от друга. Найти полную надежность (вероятность безотказной работы) двигателя.
56 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 3 Решение. Рассмотрим гипотезы: //1>а — работают оба регулятора, Hi —работает только первый регулятор (второй вышел нз строя), /4 —работает только второй регулятор (первый вышел из строя). Но —оба регулятора вышли из строя и событие А — безотказная работа двигателя. Вероятности гипотез равны: Р(Н,.2) = Р,Р!; Р р (Нг) = Р2 (1 - />,); Р (//„) = (1 - Р.) (1 - Р,). Условные вероятности события А при этих гипотезах заданы: Р(^|М.2)=1-?1.!; Р(И | PZ, ) = !-?,; Р(И|//2) = 1-?!; Р(Л|Н„) = 1-^. По формуле полной вероятности получим: Р (И) = PtPt (1 - ?1, 8) + Рх (1 - Рд (1 - <71) + + -*) + (!-Р.)(1-Ра)(1-д0). 3.5. Теорема гипотез (формула Бейеса) Следствием теоремы умножения и формулы полной вероятности является так называемая теорема гипотез, или формула Бейеса. Поставим следующую задачу. Имеется полная группа несовместных гипотез /7Р Н2......Нп. Вероятности этих гипотез до опыта известны и равны соответственно Р{НХ), Р(Н2). ..., Р(Н„). Произведен опыт, в результате которою наблюдено появление некоторого события А. Спрашивается, как сле- дует изменить вероятности гипотез в связи с появлением этого со- бытия? Здесь, по существу, речь идет о том, чтобы найти условную вероятность Р (Н{ ] А) для каждой гипотезы. Из теоремы умножения имеем: P{AHl) = P{A)P(Hl\A)=zP{Hi)P{A\Hl) (7=1, 2.............и), или» отбрасывая левую часть, P{A)P(Hi\Д)==Р(Н/)Р(Д|//<) (/»!, 2.........л), откуда Р (Н, I Л) = (( = 1. 2...я). Выражая Р(Л) с помощью формулы полной вероятности (3.4.1), имеем: Р (Hl I А) = /(W|) -(Л'Hi>- (1=1.2..........п). (3.5.1) 2 р(//<)Р(Л|/л)
ЗБ] ТЕОРЕМА ГИПОТЕЗ (ФОРМУЛА БЕЙЕСА) 57 Формула (3.5.1) и носит название формулы Бейеса или тео- ремы гипотез. Пример 1. Прибор может собираться из высококачественных деталей и из деталей обычного качества; вообще около 40% приборов собирается из высококачественных деталей. Если прибор собран из высококачественных де- талей, его надежность (вероятность безотказной работы) за время t равна 0.95; если из деталей обычного качества — его надежность равна 0.7. Прибор испытывался в течение времени t и работал безотказно. Найги вероятность того, что он собран из высококачественных деталей. Решение. Возможны две гипотезы: Hi — прибор собран нз высококачественных деталей, 7/s — прибор собран из деталей обычного качества. Вероятности этих гипотез до опыта; Р (Hi) = 0.4; Р(Н2)=0,6. В результате опыта наблюдено событие А— прибор безотказно работал время t. Условные вероятности этого события при гипотезах Hi и Н2 равны: Р (А | Hi) = 0,95; Р (А | Н2) = 0,7. По формуле (3.5.1) находим вероятность гипотезы Hi после опыта: р,н'- 0,4 0,95 Р (Н,) 0,4 • 0.95 + Ц6 0,6 ~ ° 475' Пример 2. Два стрелка независимо один от другого стреляют по одной мишени, делая каждый по одному выстрелу. Вероятность попадания в мишень для первого стрелка 0.8, для второго 0,4- После стрельбы в мишени обнаружена одна пробоина. Найти вероятность того, что эта пробоина при- надлежит первому стрелку. Решение. До опыта возможны следующие гипотезы: Ht — ии первый, ни второй стрелок не попадет, Н2 — оба стрелка попадут, 77а —первый стрелок попадет, а второй ие попадет, Ht — первый стрелок не попадет, а второй попадет. Вероятности этих гипотез: Р (Н{) = 0,2 0,6 = 0,12; Р (Н2) = 0,8 0,4 = 0,32; Р(Н3) = 0,8 -0,6 = 0.48; Р(Н<) = 0,2 -0,4 = 0,08. Условные вероятности наблюденного события А при этих гипотезах равны: Р(Л|Я1) = 0; Р(Л|Я2) = 0; Р(Л|//3) = 1; Р(Л|Н4) = 1. После опыта гипотезы Ht н Н2 становятся невозможными, а вероят- ности гипотез Н2 и Ht будут равны: Р1Н °'48-’ - « 0.08-1 1 Р(Я’1 * 0,48-1+0.08-1 ~ 7 ’ 0,48-1 +0.6+Т-----7"
58 ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕН [ГЛ 3 Следовательно, вероятность того, что пробоина принадлежит первому 6 стрелку, равна у. Пример 3= Производится наблюдение за некоторым объектом с по- мощью двух наблюдательных станций. Объект может находиться в двух различных состояниях St и Ss, случайно переходя из одного в другое. Долговременной практикой установлено, что примерно 30% времени объект находится в состоянии $|, а 70%—в состоянии S2. Наблюдательная стан- ция № 1 передает ошибочные сведения приблизительно в 2% всех случаев, а наблюдательная станция № 2 — в 8%. В какой-то момент времени наблюдательная станция № I сообщила: объект находится в состоянии Sj, а наблюдательная станция № 2: объект находится в состоянии Sa. Спрашивается: какому из сообщений следует верить? Решение. Естественно верить тому из сообщений, для которого больше вероятность того, что оно соответствует истине. Применим формулу Бейеса. Для этого сделаем гипотезы о состоянии объекта: — объект находятся в состоянии SIf //2 —объект находится в состоянии S2. Наблюденное событие А состоит в следующем: станция № 1 сообщила, что объект находится в состоянии SlD а станция № 2 — что он паходчгся В состоянии S3. Вероятности гипотез до опыта р = о,з, P(tfa) = o,7. Найдем условные вероятности наблюденного события А при этих гипо- тезах. При гипотезе чтобы произошло событие А, нужно, чтобы первая станция передала верное сообщение, а вторая — ошибочное: Р (А [ Я,) = 0,98 0,08 = 0,0784. Применяя формулу Бейеса, найдем вероятность того, что истинное состояние об ьекта — лч 0.3-0,0784 P<W,|j4) 0.3-0,0784 + 0,7-0.0184 ~ °'645- т. е. из двух пере чанных сообщений более правдоподобным является сооб- щение первой егавции. ГЛАВА 4 ПОВТОРЕНИЕ ОПЫТОВ 4.1. Частная теорема о повторении опытов При практическом применении теории вероятностей часто прихо- дится встречаться с задачами, в которых один и тот же опыт нли аналогичные опыты повторяются неоднократно. В результате каждого опыта может появиться или не появиться некоторое событие 4, при- чем нас интересует не результат каждого отдельного опыта, а общее число появлений события А в результате серии опытов. Например, если производится группа выстрелов по одной и той же цели, нас, как правило, интересует не результат каждого выстрела, а общее число попаданий. В подобных задачах требуется уметь определять вероятность любого заданного числа появлений события в результате серии опытов. Такие задачи и будут рассмотрены в данной главе. Они решаются весьма просто в случае, когда опыты являются ие- вависимыми. Несколько опытов называются независимыми, если вероятность того или иного исхода каждого из опытов не зависит от того, какие исходы имели другие опыты. Например, несколько последовательных бросаний монеты представляют собой независимые опыты. Несколько последовательных выниманий карты из колоды представляют собой независимые опыты при условии, что вынутая карта каждый раз воз- вращается в колоду и карты перемешиваются; в противном случае это — зависимые опыты. Несколько выстрелов представляют собой независимые опыты только в случае, если прицеливание производится заново перед каждым выстрелом; в случае, когда прицеливание про- изводится один раз перед всей стрельбой или непрерывно осуще- ствляется в процессе стрельбы (стрельба очередью, бомбометание серией) выстрелы представляют собой зависимые опыты Независимые опыты могут производиться в одинаковых или раз- личных условиях. В первом случае вероятность события /1 во всех опытах одна н та же. Во втором случае вероятность события А от опыта к опыту меняется. К первому случаю относится частная теорема, а ко второму — общая теорема о повторении опытов.
60 ПОВТОРЕНИЕ ОПЫТОВ 1ГЛ 4 Мы начнем с частной теоремы, как более элементарной. Прежде всего рассмотрим конкретный пример. Пример. Производится три независимых выстрела по мишени, вероят- ность попадания в которую при каждом выстреле равна р. Найти вероят- ность того, что при этих трех выстрелах мы получим ровно два попадания. Решение. Обозначим В8 событие, состоящее в том, что в мишень попадет ровно два снаряда Это событие может произойти тремя способами: 1) попадание при первом выстреле, попадание при втором, промах при третьем; 2) попадание прн первом выстреле, промах при втором, попадание при третьем; 3) промах при первом выстреле, попадание при втором, попадание при третьем. Следовательно, событие Ва можно представить как сумму произведений событий: -— Aj —]— где Alt A2, A3—попадание при первом, втором, третьем выстрелах соответ- ственно, А], А2, Йа — промах при первом, втором, третьем выстрелах. Учитывая, что три перечисленных варианта события В2 несовместны, а события, входящие в произведения, независимы, по теоремам сложения и умножения получим: Р (В3) = рр (I — pt + р (1 — pt р+ (1 — р) рр, или, обозначая 1 — P(Ba) = fyAp Аналогичным образом, перечисляя все возможные варианты, в ко- торых интересующее нас событие может появиться заданное число раз. можно решить и следующую общую задачу. Производится п независимых опытов, в каждом из которых может появиться или не появиться некоторое событие И; вероятность появле- ния события А в каждом опыте равна р, а вероятность непоявления 9 = 1—р. Требуется найти вероятность того, что событие А в этих п опытах появится ровно т раз. Рассмотрим событие Вп состоящее в том, что событие А появится в п опытах ровно т раз. Это событие может осуществиться различ- ными способами. Разложим событие В^ на сумму произведений собы- тий. состоящих в появлении или непоявлении события А в отдельном опыте. Будем обозначать А{ появление события А в Z-м опыте; А{ — непоявление события А в Z-м Опыте. Очевидно, каждый вариант появления события Вт (каждый член суммы) должен состоять нз т появлений события А и п—т непо- явлений, т. е. из т событий Ann— т событий Л с различными индексами. Таким образом, = A„Am+,... 4,+ ..._ ••• ••• A,-iA,+ • •• • • + А\А3 ... A„_mA„_mtl ... А„.
4.2] ОБЩАЯ TEOPEWA О ПОВТОРЕНИИ ОПЫТОВ 61 причем в каждое произведение событие А должно входить т р'йз, а А должно входить п — т раз. Число всех комбинаций такого рода равно С™, т. е. числу спо- собов, какими можно из п опытов выбрать т, в которых произошло событие Д. Вероятность каждой такой комбинации, по теореме умно- жения для независимых событий, равна prnql,-ni. Так как комбинации между собой несовместны, то, по теореме сложения, вероятность события Вт равна „ = ру-"'+ ... +Ру-"-= с™р Vй. с-раз Таким образом, мы можем дать следующую формулировку частной теоремы о повторении опытов. Если производится п независимых опытов, в каждом из которых событие А появляется с вероятностью р, то вероятность того, что событие А появится ровно т раз. выражается формулой Pm.n=c^pmqn~mt (41.1) где 7=1 — р Формула (4.1.1) описывает, как распределяются вероятности между возможными значениями некоторой случайной величины—числа по- явлений события А прн п опытах. В связи с тем, что вероятности Рт, „ по форме представляют со- бой члены разложения бинома (q-\-p)n, распределение вероятностей вида (4.1.1) называется биномиальным распределением. 4.2. Общая теорема о повторении опытов Частная теорема о повторении опытов касается того случая, когда вероятность события А по всех опытах одна и та же. На практике часто приходится встречаться с более сложным случаем, когда опыты производятся в неодинаковых условиях, и вероятность события от опыта к опыту меняется. Например, если производится ряд выстрелов в переменных условиях (скажем, при изменяющейся дальности), то вероятность попадания от выстрела к выстрелу может заметно меняться. Способ вычисления вероятности заданного числа появлений собы- тия в таких условиях дает общая теорема о повторении опытов. Пусть производится п независимых опытов, в каждом из которых может появиться или не появиться некоторое событие И, причем вероятность появления события А в Z-м опыте равна р{, а вероят- ность непоявления q~t = 1 — pL (i — 1...п). Требуется найти веро- ятность Рт,п того, что в результате п опытов событие А появится ровно т раз.
62 ПОВТОРЕНИЕ ОПЫТОВ [ГЛ. 4 Обозначим по-прежнему Вт событие, состоящее в том, что собы- тие А появится т раз в п опытах. По-прежнему представим Вт как сумму произведений элементарных событий: Вт = • • • Ат Ая+1 • • + • • • • • • + Aj -+ • • • • • • + А А • • • • • • 4,« причем в каждое из произведений событие А входит т раз. событие Л п — т раз. Число таких комбинаций по-прежнему будет С„, но сами комбинации между собой будут уже неравновсроятны. Применяя теорему сложения н теорему умножения для независи- мых событий, получим: ^*т, п Р1Р2 ’ • • РтЯт+1 • • • *7« I • • • • • • + /Ъ^йРз • • • Чп-\Рп + • • • * • • ~I- Я\Я2 • • • Qn—tnPn—m+1 • • • Рп* т. е. искомая вероятность равна сумме всех возможных произведений, в которые буквы р с разными индексами входят т раа, а буквы q с разными индексами п — т раз. Для того чтобы чисто механически составлять все возможные произведения из т букв р и п — т букв q с разными индексами, применим следующий формальный прием. Составим произведение п биномов: Ч>» («) = («! + P1Z) (?2 + p2z) p„z) или короче <?»(*) = П (9;+ P(z). где z — произвольный параметр. Зададимся целью найти в этом произведении биномов коэффи- циент при zm. Для этого перемножим биномы и произведем приве- дение подобных членов. Очевидно, каждый член» содержащий zm. будет иметь в качестве коэффициента произведение т букв р с какими-то индексами и п — т букв q, а после приведения подоб- ных членов коэффициент при zm будет представлять собой сумму всех возможных произведений такого типа. Следовательно, способ составления этого коэффициента полностью совпадает со способом вычисления вероятности Ртг п в задаче о повторении опытов. Функция <fn (z), разложение которой по степеням параметра z дает в качестве коэффициентов вероятности Рт,п. называется про- изводящей функцией вероятностей Рт> п нли просто производя- щей функцией.
ОБЩАЯ ТЕОРЕМА О ПОВТОРЕНИИ ОПЫТОВ 63 Пользуясь понятием производящей функции, можно сформулиро- вать общую теорему о повторении опытов в следующем виде. Вероятность того, что событие А в я независимых опытах поя- вится ровно т раз, равна коэффициенту при z'n в выражении произ- водящей функции: ¥„(г)= |”| + ы где р, — вероятность появления события Л в Z-м опыте, ft = l—pt. Вышеприведенная формулировка общей теоремы о повторении опытов в отличие от частной теоремы не дает явного выражения для вероятности РтгП- Такое выражение в принципе написать можно, но оно является слишком сложным, и мы не будем его приводить. Однако, не прибегая к такому явному выражению, все же можно записать общую теорему о повторении опытов в виде одной формулы: П («< + ₽,«) = 2 Рт.^т- (4-2.1) i=i п=о Левая и правая части равенства (4.2.1) представляют собою одну и ту же производящую функцию <pn(z), только слева она написана в виде одночлена, а справа — в виде многочлена. Раскрывая скобки в левой части и выполняя приведение подобных членов, получим все вероятности: Ро, П» Pl. П> • • •• ^П. П как коэффициенты соответственно при нулевой, первой и т. д. сте- пенях z. Очевидно, частная теорема о повторении опытов вытекает из общей при P\ — Pt~ • •• ~Рп~Р' 9'1 = 02 = ••• = Яп~Я- В этом случае производящая функция обращается в n-ю степень бинома (q-f-pz): Чп (*) = (?+ />*)"• Раскрывая это выражение по формуле бинома, имеем: (й + Рг) = 2jC„p q z , tn -О откуда следует формула (4.1.1).
64 ПОВТОРЕНИЕ ОПЫТОВ [ГЛ. 4 Отметим, что как в общем, так и в частном случае сумма всех вероятностей Рт,п равна единице: = 0-2-2) т=0 Это следует прежде всего из того, что события Вп, Вг........Вп образуют полную группу несовместных событий. Формально к равен- ству (4.2.2) можно придти, полагая в общей формуле (4.2.1) 2=1. Во многих случаях практики, кроме вероятности Рт_п ровно т появлений события А, приходится рассматривать вероятность н е менее т появлений события А. Обозначим Сгп событие, состоящее в том, что событие А поя- вится не менее т раз, а вероятность события Ст обозначим /?тея. Очевидно. Ст~Вт-\-Вт + \'+- ••• 4" Pni откуда, по теореме сложения. Кт,» = Лп.» + РПМ.л + ••• +Рп.п- или короче «т.„ = 2Л.»- «2.3) t=»t При вычислении Rmt „ часто бывает удобнее не пользоваться не- посредственно формулой (4.2.3), а переходить к противоположному Событию и вычислять вероятность Rmi п по формуле Р „ = 1 — У Р, „ 0-2-4) т, п I, п ' * 1=0 Пример 1. Производится 4 независимых выстрела по одной н той же цели с различных расстояний; вероятности попадания при этих выстрелах равны соответственно Pi = 0,1; рг — 0,2; рв = 0,3; р4 = 0,4. Найти вероятности ин одного, одного, двух, трех я четырех попаданий; />014; Р1А. Рз,и Р<+ Решение. Составляем производящую функцию: 4 Т.(г) = П<»< + йг') = 1=1 = (0,9 + 0,1г) (0,8 +0,2z) (0,7 + 0,3г) (0,6 +0.42) = 0,302 + 0,440г + 0,2152s + 0.04023 + 0.0022*, откуда />ол = 0.302; />.,4 = 0,440; Р2И= 0,215; />8>< = 0,040; P4t4 = ft002.
4 2] ОБЩАЯ ТЕОРЕМА О ПОВТОРЕНИИ ОПЫТОВ 65 Пример 2. Производится 4 независимых выстрела в одинаковых усло- виях, прячем вероятность попадания р есть средняя из вероятностей /?2, Гз- А предыдущего примера; Р = 4- (/' 4* Pi + Ра + А) ~ 0.25. Найти вероятности Лм; А.»; А,<; Л,<; Piuciiji е. По формуле (4.1.1) имеем: ро 4 = ?< = 0.316; Л,4= Cjr?1 = 0.421; = С’Л2 = 0.211; Р3= 0.047; Р.,, = р’ = 0,004. Пример 3. Имеется 5 станций, с которыми поддерживается связь. Время от времени связь прерывается из-за атмосферных помех. Вследствие удаленности станций перерыв друг от друга связи с каждой из них происхо- дит независимо от остальных с вероятностью /> = 0,2. Найти вероятность того, чго в данный момент времени будет иметься связь не более чем с двумя станциями. Решение. Событие, о котором идет речь, сводится к тому, что будет нарушена связь не менее чем с тремя станциями. По формуле (4.2.3) получим: Лад = Л.5+ Л<5 + Р5,5 = С? 0,2= • 0.82 + Ct 0,2’ 0.8 + 0,2= = = 0,0512 + 0,0064 + 0,0003 = 0,0579. Пример 4. Система радиолокационных станций ведет наблюдение за группой объектов, состоящей из 10 единиц. Каждый нз объектов может быть (независимо от других) потеряй с вероятностью 0.1. Найти вероят- ность того, что хогя бы один из объектов будет потерян. Решение. Вероятность потерн хотя бы одного объекта /?ltW можно было бы найти по формуле Я|,ю = /’ио + Ра-ю 4“ ••• 4“Ао,и>» во несравненно проще воспользоваться вероятностью противоположного со- бытия— ни один объект нс потеряй — и вычесть ее нз единицы: /?|,ю= 1 — Лао = 1 — О.910 » 0.65. Пример 5. Прибор состоит из 8 однородных элементов, но может работать при наличии в исправном состоянии не менее 6 из них. Каждым из элементов за время работы прибора t выходит нз строя независимо от других с вероятностью 0,2. Найти вероятность того, что прибор откажет за время t. Решение. Для отказа прибора требуется выход нз строя ие менее двух из восьми элементов. По формуле (4.2.4) имеем: Л2Л = 1 - (Ры + Р, 8) = 1 - (0,8“ + CJ. 0,2.0.8’) « 0,497. Пример 6. Производится 4 независимых выстрела с самолета по са- молету. Вероятность попадания при каждом выстреле равна 0,3. Для Теория вероятностей
66 ПОВТОРЕНИЕ ОПЫТОВ [ГЛ ♦ поражения (выхода из строя) самолета заведомо достаточно двух попаданий; при одном попадании самолет поражается с вероятностью 0,6. Найти вероят- ность того, что самолет будет поражен, Решеип.е. Задача решается по формуле полной вероятности. Можно было бы рассмотреть гипотезы f/j — в самолет попал 1 снаряд. 7/г— в самолет попало 2 снаряда, fi3 — в самолет лопало 3 снаряда, /Л—в самолет попало 4 снаряда и находить вероятность события А — поражения самолета — с помощью этих четырёх гипотез. Однако значительно проще рассмотреть всего две гипотезы Но— в самолет ие лопало нп одного снаряда. Hi — в самолет полая 1 снаряд, и вычислять вероятность события А — непоражелпя самолета: Р (3) = р (И„) Р (А I //„) + Р (//,) Р fl IМ)- Имеем: Р (//а) = Ро,( = 0.7' = 0.240; Р (НЦ = Plt=C\- 0.3 0.73 = 0,41 >; pfl|//,) = !; Pfl|M) = l — 0,6 = 0,4. Следовательно, Р (Л) = 0,240 4- 0,412 • 0,4 и 0.405, Р(А) = 1—0,405—0,595. откуда
ГЛАВА 5 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ 6.1. Ряд распределения. Многоугольник распределения В разделе курса, посвященном основным понятиям теорнн вероят- ностей, мы уже ввели в рассмотрение чрезвычайно важное понятие случайной величины. Здесь мы дадим дальнейшее развитие этого понятия и укажем способы, с помощью которых случайные величины могут быть описаны и характеризованы. Как уже было сказано, случайной величиной называется величина, которая в результате опыта может принять то или иное значение, неизвестно заранее — какое именно. Мы условились также различать случайные величины прерывного (дискретного) и непрерывного типа. Возможные значения прерывных величин могут быть заранее перечислены. Возможные значения непрерывных величин не могут быть заранее перечислены и непрерывно заполняют некоторый про- межуток. Примеры прерывных случайных величин: 1) число появлений герба при трех бросаниях монеты (возможные значения 0, 1. 2, 3); 2) частота появления герба в том же опыте (возможные зиаче- НИЯ 0, 1, 1); 3) число отказавших элементов в приборе, состоящем из пяти элементов (возможные значения 0. 1.2, 3, 4, 5); 4) число попаданий в самолет, достаточное для вывода его из строя (возможные значения 1, 2, 3, .... п, ...); 5) число самолетов, сбитых в воздушном бою (возможные зна- чения 0, 1, 2..../V, где N — общее число самолетов, участвую- щих в бою). Примеры непрерывных случайных величин: 1) абсцисса (ордината) точки попадания при выстреле; 2) расстояние от точки попадания до центра мишени; 3) ошибка измерителя высоты; 4) время безотказной работы радиолампы.
СЛУЧАЙНЫ? ИЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ |ГЛ. Б Условимся в дальнейшем случайные величины обозначать боль- шими буквами, а их возможные значения — соответствующими малыми буквами. Например. А" — число попаданий при трех выстрелах; воз- можные значения: a’j = 0; х2=1; х3 = 2. лг4 = 3. Рассмотрим прерывную случайную величину X с возможными зна- чениями Jt[. л2....хп. Каждое нз этих значений возможно, ио не достоверно, и величина X может принять каждое из них с некото- рой вероятностью. В результате опыта величина А' примет одно из этих значений, т. е. произойдет одно из полной группы несовмест- ных событий: Х = х1. (5.1.1) Обозначим вероятности этих событий буквами р с соответствую- щими индексами: Р(Х = л,) = р1; Р(Х = жа) = р2; Р(Х = х,)=ря. Так как несовместные события (5.1.1) образуют полную группу, то я £₽,=1. /=1 т. е. сумма вероятностей всех возможных значений случайной вели- чины равна единице Эта суммарная вероятность каким-то образом распределена между отдельными значениями. Случайная величина будет полностью описана с вероятностной точки зрения, если мы зададим это распределение, т. е. в точности укажем, какой вероят- ностью обладает каждое из событий (5.1.1). Этим мы установим так называемый закон распределения случайной величины. Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими нм вероятностями. Про слу- чайную величину мы будем говорить, что она подчинена данному закону распределения. Установим форму, в которой может быть задан закон распреде- ления прерывной случайной величины X. Простейшей формой зада- ния этого закона является таблица, в которой перечислены возмож- ные значения случайной величины и соответствующие им вероятности:
В.п РЯД РАСПРЕДЕЛЕНИЯ. МНОГОУГОЛЬНИК РАСПРЕДЕЛЕНИЯ 69 Такую таблицу мы будем называть рядом распределения слу- чайной величины X. Чтобы придать ряду распределения более наглядный вид, часто прибегают к его графическому изображению: по оси абсцисс отклады- ваются возможные значения случайной величины, а по оси ординат — вероятности этих значений. Для наглядности полученные точки со- единяются отрезками прямых. Такая фигура называется многоуголен ником распределения (рис. 5.1.1). Многоугольник распределения. так же как и ряд распределения, полностью характеризует случай- ную величину; он является одной из форм закона распреде- ления. Иногда удобной оказывается так называемая «механическая» интер- претация ряда распределения. Представим себе, что некоторая масса, равная единице, распределена по оси абсцисс так, что в п отдельных точках Х|. х2. .... хП сосредоточены соответственно массы рх, р-, .... /\. Тогда ряд распределения интерпретируется как система материальных точек с какими-то массами, расположенных на оси абсцисс. Рассмотрим несколько примеров прерывных случайных величии с их 'законами распределения. Пример 1. Производится один опыт, в котором может появиться или не появиться событие А. Вероятность события А равна 0.3. Рассматривается случайная величина X—число появлений события А в данном опыте (т. е. характеристическая случайная величина события А, принимающая значение I, если оно появится, и О. если не появится). Построить ряд распределения н многоугольник распределения величины X.
случайные величины и ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ 5 70 Решение. Величина X имеет всего два значения; 0 и 1. Ряд распре- деления величины X имеет вид; Многоугольник распределения изображен на рис. 5.1.2. Пример 2. Стрелок производит три вы- стрела по мишени. Вероятность попадания в ми- шень при каждом выстреле равна 0,4. За каждое попадание стрелку засчитывается 5 очков. По- строить ряд распределения числа выбитых очков. Решение. Обозначим X число выбитых очков. Возможные значения величины X: дг1=О; л2 = 5; х6 = 10; -= 15- Вероятности этих значений находим по тео- реме о повторении опытов; f , = 0,63 = 0,216; р2 CJ -0,4 0.62 = 0,432; Многоугольник распределения изображен на рис. Б.1.3. Пример 3. Вероятность появления события А равна р. Производится ряд незави- симых опытов, которые продол- жаются до первого появления собы- тия А, после чего опыты прекра- щаются. Случайная величина X— число произведенных опытов. По- строить ряд распределения вели- чины X. Решение. Возможные значе- ния величины X: 1, 2, 3, ... (теорети- чески они ничем не ограничены). Для того чтобы величина X приняла зна- чение 1, необходимо, чтобы событие А произошло в первом же опыте: ве- роятность итого равна р. Для того чтобы величина Л’ приняла значе- ние 2, нужно, чтобы в первом опыте ром — появилось; вероятность в того одном опыте событие Л не появилось, а во вто- равна др, где д =• 1 — р, и т. д. Ряд
Первые пять ординат многоугольника распределения для случая р=4 = 0,5 показаны иа рис. 5.1.4. Пример 4. Стрелок ведет стрельбу по мишени до первого попадания, имея боезапас 4 патрона. Вероятность попадания при каждом выстреле равна 0,6. Построить ряд распределения боезапаса, оставшегося неизрасхо- дованным. Решение. Случайная величина X — число неизрасходованных патро- нов — имеет четыре возможных значения: 0, 1» 2 и 3. Вероятности этих зна- чений равны соответственно: Ро^ 0,4» = 0.064; А — 0.4’ 0,6 -* 0,096; ра -* 0,4.0,6 = 0,240; р9 -*0,600. Ряд распределения величины X имеет вид: *1 0 1 2 3 Pl 0.064 0,096 0,240 0,600 Многоугольник распределения показан иа рис. 5.1.5.
72 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ 6 Пример 5. Техническое устройство может применяться в различных условиях и в зависимости от этого время от времени требует регулировки. При однократном применении устройства оно может случайным образом лопасть в благоприятный пли неблагоприятный режим.» В благоприятном режиме устройство выдерживает три применения без регулировки; перед четвертым его приходится регулировать. В неблагоприятном режиме устрой- ство приходится регулировать после первого же применения. Вероятность того, что устройство попадает в бла- Pi гоприятный режим,—0,7, что в не- благоприятный, — 0>3. Рассматри- Л ваегся случайная величина X — число /1 применений устройства до регули- / ровни. Построить ее ряд распреде- / I леиия. « / | Решение. Случайная вели- / 1 чина X имеет три возможных значс- । । имя: 1, 2 и 3. Вероятность того, что { j X = 1, равна вероятности того, что « । при первом же применении устрой- ство попадет в неблагоприятный ре- ! { жим, т. е. pt = 0,3. Для того чтобы “~~д--------j---------- j д!. величина X приняла значение 2, 1 нужно, чтобы при первом применении устройство попало в благоприятный Рис. 5.1 о. режим, а при втором—в неблаго- приятный; вероятность этого р2 = = 0,7 0,3 = 0,21. Чтобы величина X приняла значение 3, нужно, чтобы два первых раза устройство попало в благоприятный режим (после третьего разт его все равно придется регулировать). Вероятность этого равна А = 0,7»-0,49. Ряд распределения величины X имеет влд: *1 1 2 3 Pt 0,30 0,21 0.49 Многоугольник распределения показан иа рис. 5.1.6. 6,2. Функция распределения В предыдущем п3 мы ввели в рассмотрение ряд распределения как исчерпывающую характеристику (закон распределения) прерыв- ной случайной величины. Однако эта характеристика не является универсальной; она существует только для прерывных случайных величин. Нетрудно убедиться, что для непрерывной случайной вели- чины такой характеристики построить нельзя. Действительно, непре- рывная случайная величина имеет бесчисленное множество возмож- ных значений, сплошь заполняющих некоторый промежуток (так назы- ваемое «несчетное множество»). Составить таблицу, в которой были бы перечислены все возможные значения такой случайной величины, не-
ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 73 возможно. Кроме того, как мы увидим в дальнейшем, каждое отдель- ное значение непрерывной случайной величины обычно не обладает никакой отличной or нуля вероятностью. Следовательно, для непре- рывной случайной величины не существует ряда распределения в том смысле, в каком он существует для прерывной величины. Однако различные области возможных значений случайной величины все же не являются одинаково вероятными, и для непрерывной величины существует «распределение вероятностей», хотя и не в том смысле, как для прерывной. Для количественной характеристики этого распределения вероят- ностей удобно воспользоваться не вероятностью события X = х, а вероятностью события X < х, где х— некоторая текущая пере- менная. Вероятность этого события, очевидно, зависит от х, есть некоторая функция от х. Эта функция называется функцией рас- пределения случайной величины X и обозначается F (х): /7(х) = Р(Х <х). (5.2.1) Функцию распределения F(x) иногда называют также интеграль- ной функцией распределения или интегральным законом рас- пределения. Функция распределения — самая универсальная характеристика случайной величины- Она существует для всех случайных величин: как прерывных, так и непрерывных. Функция распределения пол- ностью характеризует случайную величину с вероятностной точки зрения, т. е. является одной из форм закона распределения. Сформулируем некоторые общие свойства функции распре- деления. 1. Функция распределения F(x) есть неубывающая функция своего аргумента, т. е. при х2 > хх F' ' ” ' 2. На минус бесконечности F(— оо) = 0. 3. На плюс бесконечности функция распределения равна единице: f(4-oo)=l. Не давая строгого доказательства этих свойств, прои (люстрируем их с помощью наглядной геометрической интерпретации. Для этою будем рассматривать случайную величину X как случайную точку Л на оси Ох (рис. 5.2.1). которая в результате опыта может занять то или иное положение. Тогда функция распределения F(x) есть вероятность того, что случайная точка X в результате опыта Поичдст левее точки х. Будем увеличивать х. т. е. перемещать точку х вправо по осн абсцисс. Очевидно, при этом вероятность того, что случайная точка X функция распределения равна нулю: О Гис 521.
в 21 ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ случайные величины и их ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 попадет левее х, ие может уменьшиться; следовательно, функция распределения F(x) с возрастанием х убывать не может. Чтобы убедиться в том. что F(—од) = 0, будем неограниченно перемещать точку х влево по оси абсцисс. При этом попадание слу- чайной точки X левее х в пределе становится невозможным собы- тием; естественно полагать, что вероятность этого события стремится к нулю, т. е. F{—оо)“0. Аналогичным образом, неограниченно перемещая точку х вправо, убеждаемся, что F (-|- оо) = 1, так как событие X < х становится в пределе достоверным. График функции распределения-F (х) в общем случае представляет собой график неубывающей функции (рис. 5.2.2), значения которой начинаются от 0 и доходят до 1, причем в отдельных точках функция может иметь скачкн (разрывы). Зиая ряд распределения прерывной случайной вели- чины, можно легко построить функцию распределеиня этой величины. Действительно, F{x) = P(X <х) = = 2 где неравенство xt < х под знаком суммы указывает. что суммирование распространяется на все те значения х4, которые меньше х. Когда текущая переменная х проходит через какое-инбудь из возможных значений прерывной величины X, функция распределеиня меняется скачкообразно, причем величина скачка равна вероятности этого значения Пример 1. Производится один опыт, в котором может появиться или не появиться событие А. Вероятность события А равна 0,3. Случайная величина X—число появлений события А в опыте (характеристическая случайная величина события А). Построить ее функцию распределения. Решение. Ряд распределения величины л имеет вид: xi 0 1 Построим функцию распределения величины X: 1) при Х<б F (х) = Р (X <х)=0; 2) при 0 < х < 1 /= (х) = Р (X < х)= Р (X = 0) = 0.7; 3) при х > 1 Л(х) = Р(Х<х) = Р(% = 0) + Р(^=[) = 1. График функции распределения представлен на рис. 5.2.3. В точках раз- рыва функция F(x) принимает значения, отмеченные на чертеже точками (функция непрерывна слева). ______________1________________1_^ О / Z J Рис 6.23. - Пример. 2. В условиях предыдущего примера производится 4 пеза- ггсимых опыта. Построить функцию распределеиня числа появлений события А. Решение. Обозначим X—число появлений события А в четырех оньпах. Эта величина имеет ряд распределения х, 0 1 2 3 4 Pi 0.2401 0.4 Пи 0,2616 0.0756 О,(ХИ| Построим функцию распределения случайной величины X. 1) при х<0 2) при 0 < х < 1 3) при 1 < х<2 4) при 2 < х<3 5) при 3 < х 4 6) при х > 4 Г(л)-0; F (х) = 0,2401; F(x)= 0,6517; Г (х)= 0,9163; F (х) = 0,9919; А(х) = 1. График функции распределения представлен иа рис. 5.2,4.
76 случайные величины и их ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. в Функция распределения любой прерывной случайной величины всегда есть разрывная ступенчатая функция, скачки которой проис- ходвт в точках, соответствующих возможным значениям случайной величины, и равны вероятностям этих значений. Сумма всех скачков функции F (х) равна единице. По мере увеличения числа возможных значений случайной вели= чины и уменьшения интервалов между ними число скачков становится больше, а сами скачки—меньше; ступенчатая кривая становится более плавной (рис. 5.2.5); случайная величина постепенно прибли- жается к непрерывной величине, а ее функция распределения — к не- прерывной функции (рис. 5.2.6). На практике обычно функция распределения непрерывной слу- чайной величины представляет собой функцию, непрерывную во всех
ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 77 точках, как это показано на рис. 5.2.6. Однако можно построить примеры случайных величин, возможные значения которых непрерывно заполняют некоторый промежуток, но для которых функция распре- деления не везде является непрерывной, а в отдельных точках терпит разрывы (рис. 5.2.7). Такие случайные величины называются смешан- ными. В качестве примера смешанной величпиы можно привести площадь разрушений, наносимых цели бомбой, радиус разрушитель- ного действия которой равен R (рис. 5.2.8). Значения этой случайной величины непрерывно заполняют промежуток от 0 до vR2, но прн Рис. 52.8. этом крайние значения промежутка 0 и nR2, осуществляющиеся при положениях бомбы типа / и //, обладают определенной конечной вероятностью, н этим значеиням соответствуют скачки функции рас- пределения, тогда как в промежуточных значениях (положение типа ///) функция распределения непрерывна Другой пример смешанной слу- чайной величины—время Т оезотказной работы прибора, испыты- ваемого в течение времени /. Функция распределения этой случайной величины непрерывна всюду, кроме точки t.
78 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 6.8. Вероятность попадания случайной величины иа заданный участок При решении практических задач, связанных со случайными вели- чинами. часто оказывается необходимым вычислять вероятность того, что случайная величина примет значение, заключенное в некоторых пределах, например от а до р. Это событие мы будем называть «попаданием случайной величины X на участок от а до р». Условимся для определенности левый конец а включать в уча- сток (ос. Р), а правый—не включать. Тогда попадание случайной величины X иа участок (а, р) равносильно выполнению неравенства: <р. Выразим вероятность этого события через функцию распределения величины X. Для этого рассмотрим три события: событие А, состоящее в том, что X < р; событие В, состоящее в том, что X < а; событие С, состоящее в том, что а X < р. Учитывая, что A = /?-]- С, по теореме сложения вероятностей имеем: Р(Х < р) = Р(Х < а) -|-Р(а < X < р). или F(P) = F(a)-FP(a<X<p), откуда Р (а < X < Р) = F(Р) — F(а). (5.3.1) т. е. вероятность попадания случайной величины на заданный участок равна приращению функции распределения на этом участке. Будем неограниченно уменьшать участок (а, р), полагая, что р—>а. В пределе вместо вероятности попадания иа участок получим вероятность того, что величина примет отдельно взятое значение а; Р(Х = а)= limP(a<X<P) = Iim[F(fl) —/Ча)). (5.3.2) f->a Значение этого предела зависит от того, непрерывна ли функ- ция F (х) в точке х=а или же терпит разрыв. Если в точке а функция F(x) имеет разрыв, то предел (5.3.2) равен значению скачка функции F (х) в точке а. Если же функция F (х) в точке а непре- рывна, то этот предел равен нулю. В дальнейшем изложении мы условимся называть «непрерывными» только те случайные величины, функция распределения которых везде непрерывна. Имея это в виду, можно сформулировать следующее положение;
БД] ВЕРОЯТНОСТЬ ПОПАДАНИЯ НА ЗАДАННЫЙ УЧАСТОК 79 Вероятность любого отдельного значения непрерывной слу- чайной величины равна нулю. Остановимся иа этом положении несколько подробнее. В данном курсе мы уже встречались с событиями, вероятности которых были равны нулю: это были невозможные события. Теперь мы видим, что обладать нулевой вероятностью могут не только невозможные, но и возможные события. Действительно, событие X — а, состоящее в том. что непрерывная случайная величина X примет значение а, возможно; однако вероятность его равна нулю. Такие события — возможные, но с нулевой вероятностью—появляются только при рассмотрении опытов, не сводящихся к схеме случаев. Понятие о событии «возможном, ио обладающем нулевой вероят- ностью» кажется иа первый взгляд парадоксальным. В действитель- ности оно ие более парадоксально, чем представление о теле, имеющем определенную массу, тогда как ни одиа из точек внутри тела опре- деленной конечиой массой не обладает. Сколь угодно малый объем, выделенный из тела, обладает определенной конечной массой; эта масса приближается к нулю по мере уменьшения объема и в пределе равна нулю для точки. Аналогично при непрерывном распределении вероятностей вероятность попадания на сколь угодно малый участок может быть отлична от нуля, тогда как вероятность попадания в строго определенную точку в точности равиа нулю. Если производится опыт, в котором непрерывная случайная вели- чина X должна принять одно из своих возможных значений, то до опыта вероятность каждого из таких значений равна иулго; однако, в исходе опыта случайная величина X непременно примет одно из своих возможных значений, т. е. заведомо произойдет одно из собы- тий. вероятности которых были равны нулю. Из того, что событие X — а имеет вероятность, равиую нулю, вовсе не следует, что это событие не будет появляться, т. е. что частота этого события равна нулю. Мы знаем, что частота события при большом числе опытов не равна, а только приближается к вероят- ности. Из того, что вероятность события X =*= а равиа нулю, следует только, что при неограниченном повторении опыта это событие будет появляться сколь угодно редко. Если событие А в данном опыте возможно, но имеет вероятность, равную нулю, то противоположное ему событие А имеет вероятность, равную единице, но не достоверно. Для непрерывной случайной величины X при любом а. событие X =£ а имеет вероятность, равную единице, однако это событие ие достоверно. Такое событие при неограниченном повторении опыта будет происходить почти всегда, ио ие всегда. В п°б.1 мы познакомились с «механической» интерпретацией Прерывной случайной величины как распределения единичной массы, сосредоточенной в нескольких изолированных точках на оси абсцисс.
80 случайные величины и их законы РАСПРЕДЕЛЕНИЯ [ГЛ 8 В случае непрерывной случайной величины механическая интерпре- тация сводится к распределению единичной массы не по отдельным точкам, а непрерывно по оси абсцисс, причем пи одна точка не обладает конечной массой. 5.4. Плотность распределения Пусть имеется непрерывная случайная величина X с функцией распределения F (х). которую мы предположим непрерывной и диф- ференцируемой. Вычислим вероятность попадания этой случайной величины на участок от х до x-J-Дх: Р (х < X < х Дх) = F (х 4~ Дх) — F (х). т. е. прирашение функции распределения на этом участке. Рассмот- рим отношение этой вероятности к длине участка, т. е. среднюю вероятность, приходящуюся на единицу длины на этом участке, и будем приближать Дх к нулю. В пределе получим производ- ную от функции распределения: lira fU+A^-fU) = р, (х) (5 4 |} Введем обозначение: /(x) = F'(x). (5.4.2) Функция f (х) — производная функции распределения — характе- ризует как бы плотность, с которой распределяются значения случайной величины в данной точке. Эта функция называется плот- ностью распределения (иначе— «плотностью вероятности») непре- рывной случайной величины X. Иногда функцию /(х) называют также «дифференциальной функ- цией распределения» или «диффе- ренциальным законом распределе- ния» величины X. Термины «плотность распрсде- -х левая», «плотность вероятности» становятся особенно наглядными Рис. 5.41. при пользовании механической интерпретацией распределения; в этой интерпретации функция /(х) буквально характеризует плотность распределения масс по осн абсцисс (так называемую ♦линейную плотность»). Кривая, изображающая плотность распре- деления случайной величины, называется кривой распределения (рис. 5.4.1).
641 ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ 81 Плотность распределения, так же как и функция распределения, есть одна из форм закона распределения. В противоположность функции распределения эта форма не является универсальной: она существует только для непрерыв- ных случайных величин.^ Рассмотрим непрерывную слу- чайную величину X с плотностью распределения / (х) и элементар- ный участок dx, примыкающий к точке х (рис. 5.4.2). Вероят- ность попадания случайной вели- чины X на этот элементарный участок (с точностью до беско- нечно малых высшего порядка) равна f(x)dx. Величина f(x)dx называется Элементом вероят- ности. Геометрически это есть плошадь элементарного прямоугольника, опирающегося на отре- зок dx (рис. 5.4.2). Выразим вероятность попадания величины X на отрезок от а до 0 (рис. 5.4.3) через плотность распределения. Очевидно, она равна сумме элементов вероятности на всем этом участке, т. е. интегралу: ₽ P(a<X<P) = J f(x)dx'). (5.4.3) Геометрически вероятность попадания величины X на участок (а, 0) равна площади кривой распределения, опи- рающейся на этот участок (рис. 5.4.3). Формула (5.4.2) выражает плотность распределения через функцию распределения. Зададимся обратной задачей: выразить функ- цию распределения через плотность. По определению F (х) — Р{Х < х) = Р (— оо < X < х). откуда по формуле (5.4.3) имеем: f(*) = J" f(x)dx. (5.4.4) ’) Так как вероятность любого отдетьного значения непрерывной слу- чайной величины равна нулю, то можно рассматривать здесь отрезок (а, р), нс включая в него левый конец, т. е. отбрасывая знак равенства в а^Х < р.
82 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ и ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ (ГЛ 8 Геометрически F (х) есть не что иное, как площадь кривой рас- пределения, лежащая левее точки х (рис. 6.4.4). Укажем основные свойства плотности распределения. 1. Плотность распределения есть неотрицательная функция: Это свойство непосредственно вытекает из того, что функция распределения F (х) есть неубывающая функция. 2. Интеграл в бесконечных пределах от плотности распределения равен единице: со J / W dx = 1 г —со Это следует из формулы (5.4.4) и из того, что F(+oo)«l. Геометрически основные свойства плотности распреде- ления означают, что: 1) вся кривая распределения лежит не ниже оси абсцисс; 2) полная плошадь, ограниченная кривой распределения и осью абсцисс, равна единице. Выясним разиерности основных характеристик случайной вели- чины— функции распределения и плотности распределения. Функция распределения F(х), как всякая вероятность, есть величина безраз- мерная. Размерность плотности распределения / (х), как видно из формулы (5.4.1), обратна размерности случайной величины. Пример I. Функция распределения непрерывной случайной величины X задана выражением (О при х < О, «ха при 0< х<1, 1 при х > 1. а) Найти коэффициент а. б) Найти плотность распределения / (х). в) Найти вероятность попатания величины X на участок от 0,25 до 0,5. Решение, а) Так как функция распределения величины X непрерывна, то при х = 1 ах* 1 2= I, откуда а = 1 б) Плотность распределения величины X выражается формулой (0 при х < 0, 2л при 0 < х < 1, 0 прч х> 1. в) По формуле (5.3.1) имеем: Р (0,25 < X < 0,5) - F (0.5) — F (0,25) — 0,53 * * б) — 0.252 — 0,1875.
«41 ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ 83 Пример 2. Случайная с плотностью: / (х) = a cos х величина X подчинена закону распределения при 2* /(х) = 0 а) Найти коэффициент а. б) Построить график плотности распределения / (х). в) Найти функцию распределения Р(х) и построить ее график, г) Найти вероятность попадания ве- личины X на участок от 0 до Решение, а) Для определения коэффициента а воспользуемся свойст- вом плотности распределения: при — -g- или J / (х) dx = § a cos х rfx = 2а = ~2 см куда б) f'x) г Рис. 5 45. рис. 5.4.5. 2 ’ График плотности /(х) представлен в) По формуле (5.4.4) получаем выражение функции распределения: при Л(х) = -2 (slnx+l) при О 2 2 2 ‘ 2 График функции F (х) изображен на рнс. 5.4.6. 2
84 случайные величины и их ЗАКОНЫ РАСПРЕДЕЛЕНИЯ (ГЛ. 8 г) По формуле (5.3.1) имеем: p(o<Z<^) = l(sln^+l)-4(slnO+l) = J^. Пример 3. Плотность распределения случайной величины X задана формулой: /W=* ч(1+х») а) Построить график плотности /(*) б) Найти вероятность того, что величина X попадет иа участок (—I, +1). Решение, а) График плотности дан на рис. 5.4.7. б) По формуле (5.4.3) имеем; 1 ₽(-1<Х<1) = / -.l.re.gx|l_, = |. 6.5. Числовые характеристики случайных величин. Их роль и назначение В данной главе мы познакомились с рядом полных, исчерпываю- щих характеристик случайных величии—так называемых законов распределения. Такими характеристиками были: для дискретной случайной величины а) функция распределения; б) ряд распределения (графически — многоугольник распределения); для непрерывной величины а) функция распределения; б) плотность распределения (графически — кривая распределения). *) Так называемый закон Коши.
6 61 ХАРАКТЕРИСТИКИ ПОЛОЖЕНИЯ 85 Каждой закон распределения представляет собой некоторую функцию, и указание этой функции полностью описывает случай- ную величину с вероятностной точки зрения. Однако во многих вопросах практики нет необходимости характе- ризовать случайную величину полностью, исчерпывающим образом. Зачастую достаточно бывает указать только отдельные числовые параметры, до некоторой степени характеризующие существенные черты распределения случайной величины: например, какое-то сред- нее значение, около которого группируются возможные значения слу- чайной величины: какое-либо число, характеризующее степень раз- бросанности этих значений относительно среднего, и т. д. Поль- зуясь такими характеристиками, мы хотим все существенные све- дения относительно случайной величины, которыми мы располагаем, выразить наиболее компактно с помощью минимального числа числовых параметров. Такне характеристики, назначение которых — выразить в сжатой форме наиболее существенные особенности распределения» называются числовыми характеристиками случайной величины. В теории вероятностей числовые характеристики и операции с ними играют огромную роль. С помощью числовых характеристик суще- ственно облегчается решение многих вероятностных задач. Очень часто удается решить задачу до конца, оставляя в стороне законы распределения и оперируя одними числовыми характеристиками. При этом весьма важную роль играет то обстоятельство, что когда в задаче фигурирует большое количество случайных величин, каждая из которых оказывает известное влияние на численный результат опыта, то закон распределения этого результата в значительной мере можно считать независимым от законов распределения отдельных случайных ве- личин (возникает так называемый нормальный закон распределения). В этих случаях по существу задачи для исчерпывающего суждения о результирующем законе распределения не требуется знать законов рас- пределения отдельных случайных величин, фигурирующих в задаче; до- статочно знать лишь некоторые числовые характеристики этих величин. В теории вероятностей и математической статистике применяется большое количество различных числовых характеристик, имеющих различное назначение и различные области применения. Из них в настоящем курсе мы введем только некоторые, наиболее часто применяемые. 6.6. Характеристики положения (математическое ожидание, мода, медиана) Среди числовых характеристик случайных величин нужно прежде всего отметить те, которые характеризуют положение случайной величины на числовой осн, т. е. указывают некоторое среднее, ориентировочное значение, около которого группируются все возмож- ные значения случайной величины.
86 случайные величины и нх ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. в Среднее значение случаяной величины есть некоторое число, являющееся как бы ее «представителем» и заменяющее ее при грубо ориентировочных расчетах. Когда мы говорим: «среднее время работы лампы равно 100 часам» или «средняя точка попадания смещена от- носительно цели на 2 м вправо», мы этим указываем определенную числовую характеристику случайной величины, описывающую ее местоположение на числовой оси, т. е. «характеристику положения». Из характеристик положения в теории вероятностей важнейшую роль играет математическое ожидание случайной величины, ко- торое иногда называют просто средним значением случайной величины. Рассмотрим дискретную случайную величину X. имеющую воз- можные значения хр х2, .... ха с вероятностями рР р2. -.рп. Нам требуется охарактеризовать каким-то числом положение значений случайной величины на оси абсцисс с учетом того, что эти значения имеют различные вероятности. Для этой цели естественно воспользо- ваться так называемым «средним взвешенным» из значений хР причем каждое значение xt при осреднении должно учитываться с «весом», пропорциональным вероятности этого значения. Таким образом, мы вычислим среднее значение случайной величины X, которое мы обо- значим Л4{Л’]: Л1|*1 = -tiPi+-»№ + Pi 4- Pi + • + Рл z x,p‘ i=l или, учитывая, что 2j р. /=| (5 6 I) Это среднее взвешенное значение и называется математическим ожиданием случайной величины. Таким образом, мы ввели в рас- смотрение одно из важнейших понятий теории вероятностей — поня- тие математического ожидания, Математическим ожиданием случайной величины называется сумма произведений всех возможных значений случайной вели- чины на вероятности этих значений. Заметим, что в вышеприведенной формулировке определение мате- матического ожидания справедливо, строго говоря, только для ди- скретных случайных величин; ниже будет дано обобщение этого по- нятия на случай непрерывных величин. Для того чтобы сделать понятие математического ожидания более наглядным» обратимся к механической интерпретации распределения
5.6] ХАРАКТЕРИСТИКИ ПОЛОЖЕНИЯ 87 дискретной случайной величины. Пусть на оси абсцисс расположены точки с абсциссами jq. х2, —. хп, в которых сосредоточены соот- ветственно массы р2, ...» ря. причем У pf= 1. Тогда, очевидно. i=i математическое ожидание 1-V], определяемое формулой (5.6.1), есть не что иное, как абсцисса центра тяжести данной системы материальных точек. Математическое ожидание случайной величины X связано свое- образной зависимостью со средним арифметическим наблю- денных значений случайной величины при большом числе опытов. Эта зависимость того же тира, как зависимость между частотой и вероятностью, а именно: прн большом числе опытов среднее ариф- метическое наблюденных значений случайной величины приближается (сходится по вероятности) к ее математическому ожиданию. Из нали- чия связи между частотой и вероятностью можно вывести как след- ствие наличие подобной же связи между средним арифметическим и математическим ожиданием. Действительно, рассмотрим дискретную случайную величину Х, характеризуемую рядом распределения: Pl Pt Pi • - - Рп где pt — Р(Х = х1'). Пусть производится N независимых опытов, в каждом из которых величина X принимает определенное значение. Предположим, что значение хг появилось т1 раз, значение х2 появилось т2 раз, вообще значение xt появилось mz раз. Очевидно, У mt = N. i=t Вычислим среднее арифметическое наблюденных значений вели- чины X, которое в отличие от математического ожидания М [Х] мы обозначим 7И*[Л’р = xtmt-^x3m2-}- ... -}-х„тП
88 случайные величины и ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. Б Но ~~ есть не что иное, как частота (или статистическая ве- роятность) события X = xz; эту частоту можно обозначить р*. Тогда п м’ [Xi = 2 х,р', i= I т. е. среднее арифметическое наблюденных значений случайной вели- чины равно сумме произведений всех возможных значений случайной величины на частоты этих значений. При увеличении числа опытов N частоты р* будут приближаться (сходиться по вероятности) к соответствующим вероятностям р{. Следовательно, и среднее арифметическое наблюденных значений случайной величины Л1 {Х{ при увеличении числа опытов будет при- ближаться (сходиться по вероятности) к ее математическому ожида- нию М [Х]. Сформулированная выше связь между средним арифметическим и математическим ожиданием составляет содержание одной из форм закона больших чисел. Строгое доказательство этого закона будет дано нами в главе 13. Мы уже знаем, что все формы закона больших чисел констати- руют факт устойчивости некоторых средних при большом числе опы- тов. Здесь речь идет об устойчивости среднего арифметического ит ряда наблюдений одной и той же величины. При небольшом числе опытов среднее арифметическое их результатов случайно; при доста- точном увеличении числа опытов оно становится «почти не случай- ным» и. стабилизируясь, приближается к постоянной величине — математическому ожиданию. Свойство устойчивости средних при большом числе опытов легко проверить экспериментально. Например, взвешивая какое-либо тело в лаборатории на точных весах, мы в результате взвешивания полу- чаем каждый раз новое значение; чтобы уменьшить ошибку наблю- дения, мы взвешиваем тело несколько раз и пользуемся средним арифметическим полученных значений. Легко убедиться, что при дальнейшем увеличении числа опытов (взвешиваний) среднее арифме- тическое реагирует на это увеличение все меньше и меньше и при достаточно большом числе опытов практически перестает меняться. Формула (5.6.1) для математического ожидания соответствует случаю дискретной случайной величины. Для непрерывной величины X математическое ожидание, естественно, выражается уже не суммой, а интегралом; ЛЦ%1 = J xf(x)dx, (5.6.2) где f (х) — плотность распределения величины X.
6 6] ХАРАКТЕРИСТИКИ ПОЛОЖЕНИЯ 89 Формула (5.6.2) получается из формулы (5.6,1). если в ней заме- нить отдельные значения х{ непрерывно изменяющимся параметром х. соответствующие вероятности р{ — элементом вероятности f(x)dx, конечную сумму — интегралом. В дальнейшем мы часто будем поль- зоваться таким способом распространения формул, выведенных для прерывных величин, на случай непрерывных величин. В механической интерпретации математическое ожидание непре- рывной случайной величины сохраняет тот же смысл — абсциссы центра тяжести в случае, когда масса распределена по оси абсцисс непрерывно, с плотностью / (х). Эта интерпретация часто позволяет найти математическое ожидание без вычисления интеграла (5.6.2), из простых механических соображений. Выше мы ввели обозначение Л1 [А'[ для математического ожида- ния величины X. В ряде случаев, когда величина Л1 {X] входит в формулы как определенное число, ее удобнее обозначать одной буквой. В этих случаях мы будем обозначать математическое ожида- ние величины А' через тх: Обозначения тх и Л4 [Х{ для математического ожидания будут в дальнейшем применяться параллельно в зависимости от удобства той или иной записи формул. Условимся также в случае надобности сокращать слова «математическое ожидание» буквами м. о. Следует заметить, что важнейшая характеристика положения — математическое ожидание — существует не для всех случайных вели- чин. Можно составить примеры таких случайных величин, для которых математического ожидания не существует, так как соответствующая сумма или интеграл расходятся. Рассмотрим, например, прерывную случайную величину X с рядом Нетрудно убедиться в том, что У, р, = 1, т, е. ряд распределе- i=i ниЯ имеет смысл; однако сумма У x,pi в данном случае расходится /=1 и. следовательно, математического ожидания величины X не суще- ствует. Однако для практики такие случаи существенного интереса не представляют. Обычно случайные величины, с которыми мы имеем дело, имеют ограниченную область возможных значений н безусловно обладают математическим ожиданием.
90 случайные величины И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ в Выше мы дали формулы (5.6.1) и (5.6.2), выражающие математи- ческое ожидание соответственно для прерывной н непрерывной слу- чайной величины X. Если величина X принадлежит к величинам смешанного типа, то ее математическое ожидание выражается формулой вида: AH.Y] = V^ + I 4-jxF'(x)dx. (5.6.3) где сумма распространяется на все точки xt, в которых функция распределения тер- пит разрыв, а интеграл — на все участки, на которых функция распределения не- прерывна. Кроме важнейшей из ха- рактеристик положения — ма- тематического ожидания, — на практике иногда применяются н другие характеристики положения, в частности мода и медиана случайной величины. Модой случайной величины называется ее наиболее вероятное значение. Термин «наиболее вероятное значение», строго говоря, применим только к прерывным величинам; дли непрерывной величины модой является то значение, в котором плотность вероятности макси- мальна. Условимся обозначать моду буквой На рис. 5.6.1 и 5.6.2 показана мода соответственно для прерывной и непрерывной случайных величин.
вез ХАРАКТЕРИСТИКИ ПОЛОЖЕНИЯ 91 Если многоугольник распределения (кривая распределения) имеет более одного максимума, распределение называется «иолимодальным» (рис. 5.6.3 и 5.6.4). Иногда встречаются распределения, обладающие посередине не максимумом, а минимумом (рис. 5.6.5 и 5.6.6). Такие распределения называются «антнмо дальними». Примером антимодального распреде- ления может служить распределение, полученное в примере 5, п° 5.1.
92 случайные величины и ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ б В общем случае мода и математическое ожидание случайной вели- чины не совпадают. В частном случае, когда распределение является симметричным и модальным (т. е. имеет моду) и существует мате- матическое ожидание, то оно совпадает с модой и центром симметрии распределения. Часто применяется еше одна характеристика положения — так на- зываемая медиана случайной величины. Этой характеристикой поль- зуются обычно только для непрерывных случайных ве- личин, хотя формально можно ее определить и для прерывной величины. Медианой случайной ве- личины X называется такое ее значение оНе. для ко- торого х Р(Х<о^е)==Р(Х>о^), О Me т. е. одинаково вероятно. Рис. 5.6.7. окажется ли случайная вели- чина меньше или больше о#е. Геометрическая медиана — это абсцисса точки, в которой площадь, ограниченная кривой распределения, делится пополам (рис. 5.6.7). В случае симметричного модального распределения медиана сов- падает с математическим ожиданием и модой. 5.7. Моменты. Дисперсия. Среднее квадратическое отклонение Кроме характеристик положения — средних, типичных значений случайной величины.—употребляется еще ряд характеристик каждая из которых описывает то или иное свойство распределения. В каче- стве таких характеристик чаше всего применяются так называемые мо менты. Понятие момента широко применяется в механике для описания распределения масс (статические моменты, моменты инерции и т. дД Совершенно теми же приемами пользуются в теории вероятностей для описания основных свойств распределения случайной величины. Чаще всего применяются на практике моменты дв)ч видов: начальные и центральные. Начальным моментом s-го порядка прерывной случайной величины X называется сумма вида: п “Л*] = 2 х;рг (5.7.1)
МОМЕНТЫ. ДИСПЕРСИЯ 93 6.7] Очевидно, это определение совпадает с определением начального момента порядка $ в механике, если на оси абсцисс в точках л,. х2.....х„ сосредоточены массы /?,. р2.....рп. Для непрерывной случайной величины X начальным моментом s-ro порядка называется интеграл 00 «,1Х|= J x’/(x)dx. (5.7.2) —со Нетрудно убедиться, что введенная в предыдущем п° основная характеристика положения — математическое ожидание — представляет собой не что иное, кек первый начальный момент случайной ве- личины X, Пользуясь знаком математического ожидания, можно объединить дое формулы (5.7-1) и (5.7.2) в одну. Действительно, формулы (5.7.1) и (5.7.2) по структуре полностью аналогичны формулам (5.6.1) и (5.6.2), с той разницей, что в них вместо xt и х стоят, соответ- ственно, х3{ и хя. Поэтому можно написать общее определение началь- ного момента s-ro порядка, справедливое как для прерывных, так и для непрерывных величин: а,[Х| = Л4(№]. (5.7.3) т. е. начальным моментом s-го порядка случайной величины X называется математическое ожидание s-й степени этой слу- чайной величины г). Перед тем как дать определение центрального момента, ввод, м новое понятие «центрированной случайной величины». Пусть имеется случайная величина X с математическим ожида- нием тх. Центрированной случайной величиной, соответствующей величине X, называется отклонение случайной величины X от ее математического ожидания: X = X тк. (ЪЛА) Условимся в дальнейшем везде обозначать центрированную слу- чайную величину, соответствующую данной случайной величине, той же буквой со значком ° наверху. Нетрудно убедиться, что математическое ожидание центрирован- ной случайной величины равно нулю. Действительно, для прерывной ') Понятие математического ожидания функции от случайной величины будет уточнено далее (см. главу 10).
94 случайные величины и их ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. 5 величины М [XI = Л (X — mJ = 2 (х, — mJ р, = 1=1 « п — 2ixiPi—nlr^ Pi~nr—/»г = 0; (5.7.5) i=l »-i аналогично и для непрерывной величины. Центрирование случайной величины, очевидно, равносильно пере- носу начала координат в среднюю, «центральную» точку, абсцисса которой равна математическому ожиданию. Моменты центрированной случайной величины носят название центральных моментов. Они аналогичны моментам относительно центра тяжести в механике. Таким образом, центральным моментом порядка s случайной величины X называется математическое ожидание 5-й степени соот- ветствующей центрированной случайной величины: р., IX] = М [ХЧ = М {(X — тJ*]. (5.7.6) Для прерывной случайной величины s-й центральный момент вы- ражается суммой п Ь = 3 (xi — т,У Pi- (5.7.7) 1 = 1 а для непрерывной — интегралом со Pt= f (x—m,)sf(x)dx. (5.7.8) В дальнейшем в тех случаях, когда не возникает сомнений, к какой случайной величине относится данный момент, мы будем для краткости вместо а5[Х] и [Х| писать просто as и р$. Очевидно, для любой случайной величины центральный момент первого порядка равен нулю: Н = /И[Х1 = Л1[Х —mvI = 0. (5,7.9) так как математическое ожидание центрированной случайной вели- чины всегда равно нулю. Выведем соотношения, связывающие центральные и начальные моменты различных порядков. Вывод мы проведем только для пре- рывных величин; легко убедиться, что точно те же соотношения справедливы и для непрерывных величин, если заменить конечные суммы интегралами, а вероятности — элементами вероятности.
МОМЕНТЫ. ДИСПЕРСИЯ S5 Рассмотрим второй центральный момент: |12= М[X2] = у (х, —тх)’ р, = 1=1 и п п = У x~,Pl — 2шх X *;₽;+ 5 Р/ = ’г — 2m2 + и’ = «а — л»2. Аналогично для третьего центрального момента получим: |*з= Л1 [Х3| = £ (х, — ид)2 р, = £ х’р, — Зтд i; х2р( + п п 4- 3«J 2 xipl — X Р i = *3 — ^imx 4- 2m J. Выражения для p4. p5 и т, д. могут быть получены аналогич- ным путем. Таким образом, для центральных моментов любой случайной ве- личины X справедливы формулы: 1*1 = °- p2 =«2 1*з = ’з —3'"х’г4-2™]. (5.7.10) Вообще говоря, моменты могут рассматриваться не только отно- сительно начала координат (начальные моменты) или математического ожидания (центральные моменты), но и относительно произвольной точки а: Ь = Л1[(Х —о/1. (5.7.11) Однако центральные моменты имеют перед всеми другими преиму- щество: первый центральный момент, как мы видели, всегда равен нулю, а следующий за ним. второй центральный момент при этой системе отсчета имеет минимальное значение. Докажем это. Для прерывной случайной величины X при s == 2 формула (5.7.11) имеет вид: Ь = /2(*( —яУй- (5.7.12) Преобразуем это выражение: 12 = S (Xi — тг тх — а? р,= = jS (л, — mx)2 pt — 2 (mx — а) У (*, _ щж) p 4. 4 ('«x — a?(mx — a)’.
96 случайные величины и их законы распределения ггл. б Очевидно, эта величина достигает своего минимума, когда тх = и. т. е. когда момент берется относительно точки глх. Из всех моментов п качестве характеристик случайной величины -чаще всего применяются первый начальный момент (математическое ожидание) тх — з, и второй центральный момент р2- Второй центральный момент называется дисперсией случайной величины. Ввиду крайней важности этой характеристики средн других моментов введем для нее специальное обозначение р3 = О{Х]. Согласно определению центрального момента О|Х1 = М[Л21, (5.7.13) т. е. дисперсией случайной величины X называется математи- ческое ожидание квадрата соответствующей центрированной величины. Заменяя в выражении (5.7.13) величину X ее выражением, имеем так же : D [X] = М |( X — mJ2]. (5.7.14) Для непосредственного вычисления дисперсии служат формулы: О[Х|=Ё(х,— т^р„ (5.7.15) D[X]= J (х—тх^f (x)dx (5.7.16) — соответственно для прерывных н непрерывных величин. Дисперсия случайной величины есть характеристика рассеива- ния, разбросанности значений случайной величины около ее мате- матического ожидания. Само слово «дисперсия» означает «рассеивание». Если обратиться к механической интерпретации распределения, то дисперсия представляет собой не что иное, как момент инерции заданного распределения масс относительно центра тяжести (матема- тического ожидания). Дисперсия случайной величины имеет размерность квадрата слу- чайной величины; для наглядной характеристики рассеивания удобнее пользоваться величиной, размерность которой совпадает с размер- ностью случайной величины. Для этого из дисперсии извлекают ква- дратный корень. Полученная величине называется средним квадра- тическим отклонением (иначе—«стандартом») случайной величины X. Среднее квадратическое отклонение будем обозначать o[X[: о[Х]==УЫЛ]. (5.7.17)
В7] МОМЕНТЫ. ДИСПЕРСИЯ 97 ными Для упрощения записей мы часто будем пользоваться сокращен- обозначениями среднего квадратического отклонения сии: н Dg. В случае, когда не возникает сомнения. и диспср- к какой случайной величине относятся опускать значок и Dx квадратическое вами с. к. о. отклонение» иногда будем эти характеристики, мы будем иногда н писать просто о и D. Слова «среднее сокращенно заменять бук- На практике часто применяется формула, выражающая дисперсию случайной величины через ее второй начальный момент (вторая из формул (5.7.10)). В новых обозначениях она будет иметь вид: х у ох (5.7.18) Математическое ожидание тх н дисперсия Dx (или среднее ква- дратическое отклонение ох) — наиболее часто применяемые характе- ристики случайной величины. Они характеризуют наиболее важные черты распределения: его положение и степень разбросанности. Для более подробного описания распределения применяются моменты высших порядков. Третий центральный момент служит для характеристики асим- метрии (или «скошенности») распределения. Если распределение симметрично относительно математического ожидания (или. в меха- нической интерпретации, масса распределена симметрично относительно центра тяжести), то все моменты нечетного порядка (если они суще- ствуют) равны нулю. Действительно, в сумме л ь=S (*, —i‘,f р. 4=1 при симметричном относительно тх законе распределения и нечет- ном s каждому положительному слагаемому соответствует равное.ему по абсолютной величине отрицательное слагаемое, так что вся сумма равна нулю. То же. очевидн >, справедливо и для интеграла 1S = J (x—mjf(x)dx. который равен нулю, как интеграл в симметричных пределах от не- четной функции. Естественно поэтому в качестве характеристики асимметрии рас- пределения выбрать какой-либо из нечетных моментов. Простейший из них есть третий центральный момент. Он имеет размерность куба случайной величины; чтобы получить безразмерную характеристику, третий момент делят на куб среднего квадратического отклонения. Гсиркч вероятностей
98 случайные величины и их ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. в Полученная величина носит название «коэффициента асимметрии» или просто «асимметрии»; мы обозначим ее Ski = (5.7.19) На рис. 5.7.1 показано два асимметричных распределения; одно из них (кривая I) имеет Г(х) положительную асиммет- рию (5А>0); другое (кри- вая II) — отрицательную (Sk < 0). Четвертый централь- ный момент служит для характеристики так назы- ваемой «крутости», т. е. островершинности или плосковершинности рас- пределения. Эти свойства Рис. 5.7.1. распределения описы- ваются с помощью так называемого эксцесса. Эксцессом случайной величины X называется величии-! Еа- = -£—3- (5.7.20) Число 3 вычитается из отношения ~~ потому, что для весьма важ- ного и широко распростра- ненного в природе нормаль- ного закона распределения (с которым мы подробно познакомимся в дальнейшем) £*-я=3. Таким образом, для нормального распреде- ления эксцесс равен нулю; кривые, более островершин- ные по сравнению с нор- мальной, обладают положи- тельным эксцессом; кривые Рис. 5 72. более плосковершинные — отрицательным эксцессом. На рис. 5.7.2 представлены: нормальное распределение (кривая /), распределение с положительным эксцессом (кривая //) и распреде- ление с отрицательным эксцессом (кривая ///).
МОМЕНТЫ. ДИСПЕРСИЯ 99 67] Кроме рассмотренных выше начальных и центральных моментов, на практике иногда применяются так называемые абсолютные мо- менты (начальные и центральные), определяемые формулами ₽3 = Л1||ХГ]; ^ = ЛЦ|ХГ1. Очевидно, абсолютные моменты четных порядков совпадают с обычными моментами. Из абсолютных моментов наиболее часто применяется первый абсолютный центральный момент ч1==ЛЦ|Х|] = Л1[|Х —(5.7.21) называемый средним арифметическим отклонением. Наряду с дисперсией и средним квадратическим отклонением среднее ариф- метическое отклонение иногда применяется как характеристика рас- сеивания. Математическое ожидание, мода, медиана, начальные к централь- ные моменты и, в частности, дисперсия, среднее квадратическое отклонение, асимметрия и эксцесс представляют собой наиболее упо- требительные числовые характеристики случайных величин. Во многих вздачах практики полная характеристика случайной величины — закон распределения — или не нужна, или не может быть получена. В этих случаях ограничиваются приблизительным описанием случайной вели- чины с помощью числовых характеристик, каждая из которых выражает какое-либо характерное свойство распределения. Очень часто числовыми характеристиками пользуются для при- ближенной замены одного распределения другим, причем обычно стремятся произвести эту замену так, чтобы сохранились неизменными несколько важнейших моментов. Пример 1. Производится один опыт, в результате которого может появиться или не появиться событие Л, вероятность которого равна р. Рас- сматривается случайная величина X—число появлений события А (харак- теристическая случайная величина события Я). Определить ее характе- ристики: математическое ожидание, дисперсию, среднее квадратическое отклонение. Решение. Ряд распределения величины имеет вид: xi О 1 Pl I ? Р где а = 1 — р—вероятность непоявления события А. По формуле (5.6.1) находим математическое ожидание величины X; тх = М [X] = 0 q 4-1 • р => р.
100 случайные величины и их ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. в Дисперсию величины X определим по формуле (5.7.15): D,-D[X] = (O-p)’-?-|-(l-p)’p-W. откуда __ °ж = V РЯ (Предлагаем читателю получить тот же результат, выразив дисперсию через второй начальный момент.) Пример 2. Производится три независимых выстрела по мишени; ве- роятность попадания при каждом выстреле равна 0,4. Случайная величина X- число попаданий. Определить характеристики величины X—математи- ческое ожидание, дисперсию, с. к. о., асимметрию. Решение. Ряд распределения величины X имеет вид; х‘ 1 2 3 р, 0216 0,432 0,288 0,064 Вычисляем числовые характеристики величины X: т д = О - 0,216 -j-1 • 0,432 4- 2 • 0,288 + 3 • 0,064 = 1,2; Dt = (0 — 1,2)’ • 0.216 4- (I —1,2)’ • 0,432 + (2— 1,2)’ - 0,288 + 4-(3—1,2)’ -0,064 = 0,72; о, = /Р), = /0,72 = 0.848; Н -(0— I.2)3 - 0,2164-(1 — 1.2)’-0,432 4-(2 — 1.2)’-0,288 4- 4- (3— 1.2)’ • 0,064 = 0.144; Sk - ---------— к 0,238. «* 0,72 • 0,848 Заметим, что те же характеристики могли бы быть вычислены значи- тельно проще с помощью теорем о числовых характеристиках функций (см. главу 10). Пример 3. Производится ряд независимых опытов до первого по- явления события А (см. пример Зп°5.1). Вероятность события А в каждой Математическое ожидание величины X выражается суммой ряда = 1 р4-2-?р4-3'»’/’+ ... +/ ?'-,р+ — = р(1 + 2» + 3»’+ ... +<«<- +
В.7] МОМЕНТЫ. ДИСПЕРСИЯ 101 Нетрудно видеть, что ряд, стоящий в скобках, представляет собой ре- зультат дифференцирования геометрической прогрессии: о -4- о3 -4- о3 4- 4- of 4- . = —? . Следовательно, откуда р 1 тлх —— —— • Р1 р Для определения дисперсии величины X вычислим сначала ее второй начальный момент: °2 = I1 р + ? <1Р + & ЧР+ ... +«’«' '/’ + -p(l’ + 2>0 + 3V+ ... +<V-‘+ ...). Для вычисления ряда, стоящего в скобках, умножим на q ряд: I + 2? + 3tfs+ ... +iql Получим: ? + 2»,+3«’+ ... +<«'+ •—(|lty • Дифференцируя этот ряд no q, имеем: l> + 2’(7 + 3V+ ... +,V'+ . Умножая ua p=\—q, получим: 0-0’’ = - ? 1 + g *4 (1 — q? (1 —0s’ 2~ (1-0а* По формуле (5.7.18) выразим дисперсию: Я Я откуда (!-«)= p Пример 4. Непрерывная случайная величина X подчинена закону распределения с плотностью: /(л) = Ае~ 1^1 (рис. 5.7.3). Найти коэффициент А. Определить м. а, дисперсию, с. к. о„ асимме- трию, эксцесс величины X. Решение. Для определения А воспользуемся свойством плотное си распределения: f / (•») dx — 2А J е-‘ iix = 2А = I; -со 0
102 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ. Й отсюда А~ 2' Так как функция ле”’*1 нечетная, то м. о. величины X равно нулю: Пример 5. Случайная величина л подчинена закону распределения, плотность которого задана графически на рис. 5.7.4. Написать выражение плотности распределения. Найти м. о., дисперсию. с. к. о. и асимметрию распреде- ления. Решение. Выражение плот- ности распределения имеет вид: J ах при 0 < х < 1, Х [0 при х < 0 или х > 1. Пользуясь свойством плот- ности распределения, находим с = 2. Математическое ожидание ве- личины X. 1 О Дисперсию найдем через второй начальный момент: 1 “>=2/ л=</х = 1; ол=«а-т;=-^; о
8 8} ЗАКОН РАВНОМЕРНОЙ ПЛОТНОСТИ ЮЗ отсюда в - 1 312 * Третий начальный момент равен 1 as = 2 J .V* dx — . с Пользуясь третьей из формул (5.7.10), выражающей р3 через начальные монеты, имеем: м = а — Зт -4- 2.71* -Дзг , 3 л л 133 • о: к} да s*=7— 5.8. Закон равномерной плотности В некоторых задачах практики встречаются непрерывные случай- ные величины, о которых заранее известно, что их возможные зна- чения лежат в пределах некоторого определенного интервала; кроме того, известно, что в пределах этого интервала все значения слу- чайной величины одинаково вероятны (точнее, обладают одной и той же плотностью вероятности). О таких случайных величинах говорят, что они распределяются по закону равномерной плотности. Приведем несколько примеров подобных случайных величин. Пример 1. Произведено взвешивание тела на точных весах. но в распоряжении взвешивающего имеются только разновески весом не менее I г; результат взвешивания по- казывает, что вес телз заключен между’ k и (А-f- 1) граммами. Вес тела принят равным (а 4“ у) граммам. Допущенная при этом ошибка X. очевидно, есть случайная величина, распределенная с равномерной плотностью на участке Рис. 5.81. Призер 2. Вертикально поста- вленное симметричное колесо (рис. 5.8.1) приводится во вращение и затем останавливается вследствие трения. Рассматривается случайная величина 0 — угол, который после оста- тки Судет составлять с горизонтом фиксированный радиус ко- леса О А. Очевидно, величина I распределена с равномерной ллот- ностыо на участке (0, 2х).
104 СЛУЧАЙНЫЕ величины И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ [ГЛ 5 Пример 3. Поезда метрополитена идут с интервалом 2 мин. Пассажир выходит из платформу в некоторый момент времени. Время Т. в течение которого ему придется ждать поезда, предста- вляет собой случайную величину, распределенную с равномерной плотностью на участке (0. 2) Рис 5 8.2. минут. Рассмотрим случайную вели- чину X. подчиненную закону равномерной плотности на участке от а до р (рис. 5.8.2). и напи- шем для нее выражение плотности распределения f (х). Плотность f(х) постоянна и равна с на ОТ- 'T; резке (а, {?); вне этого отрезка она равна нулю: I с при а < х < р. /(х) I о ПрИ х < а ил|1 х > р. Так как единице: то площадь, ограниченная кривой распределения, равна с (₽—«)= I. и плотность распределения f (х) имеет вид: /<*>—при /(х) = 0 при « < к < р. X < а или X > Р- (5.8.1) Формула (5.8.1) и выражает закон равномерной плотности на участке (а. р). Напишем выражение для функции распределения F(x). Функция распределения выражается площадью кривой распределения, лежащей левее точки х. Следовательно. О при при при F(x) = х < а. а < х < р. х>Р- График функции F(x) приведен на рис. 5.8.3. Определим основные числовые характеристики случайной вели- чины Л', подчиненной закону равномерной плотности иа участке от а до р.
ЗАКОН РАВНОМЕРНОЙ ПЛОТНОСТИ 105 S.BJ Математическое ожидание величины X равно: р = (б82) В силу симметричности равномерного распределения медиана ве- личины X также равна ~ Моды закон равномерной плотности не имеет. По формуле (5.7.16) находим дисперсию величины Х-. В силу' симметричности распределения его асимметрия равна нулю: 55 = ^’=0. (5.8.5) Для определения эксцесса находим четвертый центральный момент: в.Ц* 2 )-------------ЬО ’ откуда Ех = Ц — 3 = — 1.2. (5.8.6) Определяем среднее арифметическое отклонение: f\x-°-^\dx==^ ./^-4L?)'/X = P-T?- <5-87> ° с+р Наконец, найдем вероятность попадания случайной величины X, рас- пределенной по закону рапномерной плотности, иа участок (а, Ь).
106 случайные величины и их законы распределения ГГЛ. 5 представляющий собой часть участка (а, р) (рис. 5.8.4). Геометри- чески эта вероятность представляет собой площадь, заштрихованную на рис. 5.8.4. Очевидно, она равна: Р(с<Л<5) = |=^. (5.8.8) т. е. отношению длины отрезка (л, Ь) ко всей длине участка (а, р). на котором задано равномерное f(x) распределение. Рис. 5.6 4. может принимать только целые. 5.9. Закон Пуассона Во многих задачах практики приходится иметь дело со слу- чайными величинами, распреде- ленными по своеобразному за- —х кону» который называется за- коном Пуассона. Рассмотрим прерывную слу- чайную величину X. которая неотрицательные значения; 0, 1. 2........т. .... причем последовательность этих значений теоретически не ограничена. Говорят, что случайная величина А' распределена по закону Пуассона, если вероятность того, что она примет определенное зна- чение т. выражается формулой = ('« = <> 1. (5.9.1) где а — некоторая положительная величина, называемая параметром закона Пуассона. Ряд распределения случайной величины X, распределенной по закону Пуассона, имеет вид: П 1 9 m Убедимся прежде всего, что последовательность вероятностей, задаваемая формулой (5.9.1), может представлять собой ряд распре-
ВО] ЗАКОН ПУАССОНА 107 деления, т. е. что сумма всех вероятностей Рт равна единице. Имеем: Но откуда со ш=0 На рис. 5.9.1 показаны многоугольники распределения случайной величины X, распределенной по закону Пуассона, соответствующие различным значениям пара- метра а. В таблице 8 при- ложения приведены значе- ния Рт для различных а. Определим основные ха- Ц рактеристики — математиче- ское ожидание и диспер- сию—случайной величины X, распределенной по закону Пуассона. По определению математического ожидания to mz = М [XI = V тРт = //!= 0 = У„4г-. Р»с. s.9.1. ~4 ml m=»0 Первый член суммы (соответствующий т = 0) равен нулю, сле- довательно, суммирование можно начинать с m==I: Обозначим т — 1 = А; тогда = ае-°еа — а. (59.2) Таким образом, параметр а представляет собой не что иное, как математическое ожидание случайной величины X.
108 случайные величины и их законы РАСПРЕДЕЛЕНИЯ [ГЛ. я Для определения дисперсии найдем сначала второй начальный момент величины X'. а2 = У т2 — — е~а = а V т ... g~° = 2 ml (т —1)1 =0 SK"—D + HoS)ie’“= т = 1 [со со ат~ ' VI ат~1 \ (-т~ (т—1)1 е“+ (m—1)1 е~‘ m*=l m = J По ранее доказанному /л=1 6=0 кроме того, следовательно, а2 = а(а -Ь 1). Далее находим дисперсию величины X: Dx = a2 — т2 = а2-\-а— а2=й. (5.9.3) Таким образом, дисперсия случайной величины, распределен- ной по закону Пуассона, равна ее математическому ожи- данию а. Это свойство распределения Пуассона часто применяется на прак- тике для решения вопроса, правдоподобна ли гипотеза о том, что случайная величина X распределена по закону Пуассона. Для этого определяют из опыта статистические характеристики—математиче- ское ожидание и дисперсию — случайной величины1). Если их значе- ния близки, то это может служить доводом в пользу гипотезы о пуассоновском распределении; резкое различие этих характеристик, напротив, свидетельствует против гипотезы. Определим для случайной величины X, распределенной по закону Пуассона, вероятность того, что она примет значение ие меньше ’) О способах экспериментального определения этих характеристик см. ниже, гл. 7 и 14.
ЗАКОН ПУАССОНА 109 ВЛ] валянного k. Обозначим эту вероятность ^==Р(Х>Л). Очевидно, вероятность может быть вычислена как сумма • • = 2 ?т' m=h Однако значительно проще определить ее из вероятности проти- воположного события: Я» = 1-(/’о + Л+ ••• 4-Л>-1) = 1- S рт. (5.9.4) т =0 В частности, вероятность того, что величина X примет положи- тельное значение, выражается формулой R, = ] — Ро = 1 — еа. (5.9.5) Мы уже упоминали о том. что многие задачи практики приводят к распределению Пуассона. Рассмотрим одну из типичных задач такого рода. Пусть на оси абсцисс Ох случайным образом распределяются точки (рис. 5.9.2). Допустим, что случайное распределение точек удовлетворяет следующим условиям; 1. Вероятность попадания того или иного числа точек на отрезок I зависит только от длины этого отрезка, но ие зависит от его поло- жения на оси абсцисс. Иными словами, точки распределены на оси Рис. 5.9.2. абсцисс с одинаковой средней плотностью. Обозначим эту плотность (т е. математическое ожидание числа точек, приходящихся на еди- ницу длины) через К. 2. Точки распределяются на оси абсцисс независимо друг от друга, т. е. вероятность попадания того или другого числа точек на задан- ный отрезок не зависит от того, сколько их попало на любой дру- гой отрезок, не перекрывающийся с ним. 3. Вероятность попадания на малый участок Ах двух или более точек пренебрежимо мала по сравнению с вероятностью попадания одной точки (это условие означает практическую невозможность совпадения двух или более точек).
ПО случайные величины и ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ (ГЛ 5 Выделим па сси абсцисс определенный отрезок длины I и рас- смотрим дискретную случайную величину X — число точек, попа- дающих на этот отрезок. Возможные значения величины будут 0. 1, 2....т» ... (5.9.6) Так как точки попадают на отрезок независимо друг от друга, то 1еоретнчески не исключено, что их гам окажется сколь угодно много, т. е. ряд (5.9.6) продолжается неограниченно. Докажем, что случайная величина X имеет закон распределения Пуассона. Для этого вычислим вероятность Рт того, что на отрезок I попадет ровно т точек. Сначала решим более простую задачу. Рассмотрим на оси Ov малый участок Дх и вычислим вероятность того, что на этот участок попадет хотя бы одна точка. Будем рассуждать следующим образом. Математическое ожидание числа точек, попадающих на этот участок, очевидно, равно АДх (т. к. на единицу д шчы попадает в среднем А точек). Согласно условию 3 для малого отрезка Дх можно прене- бречь возможностью попадания па него двух иля больше точек. Поэтому математическое ожидание АДх числа точек, попадающих на участок Дх. будет приближенно равно вероятности попадания на пего одной точки (или, что в ваших условиях равнозначно, хотя бы одной). Таким образом, с точностью до бесконечно малых высшего порядка, при Дх-*0 можно считать вероятность того, что на уча- сток Дх попадет одна (хотя бы одна) точка, равной АДх, а вероят- ность того, что не попадет ни одной, равной 1—АДх. Воспользуемся этим для вычисления вероятности Рт попадания на отрезок I ровно т точек. Разделим отрезок I на п равных частей длиной Дх==—. Условимся называть элементарный отрезок Дх «пустым», если в него не попало ни одной точки, и «занятым», если в него попала хотя бы одна. Согласно вышедоказанному вероятность того, что отрезок Дх окажется «занятым», приближенно равна АДх== А/ . X/ = вероятность того, что он окажется «пустым», равна I-------- Так как, согласно условию 2. попадания точек в неперекрываюшиеся отрезки независимы, то наши п отрезков можно рассмотреть как п независимых «опытов», в каждом из которых отрезок может быть «занят» с вероятностью р=—. Найдем вероятность того, что среди п отрезков будет ровно т «запятых». По теореме о повторении опы- тов эта вероятность равна ^т/А/\«’/ М\в-т Спог) I1—п)
ЗАКОН ПУАССОНА Ш Б.»] или, обозначая к/= а. (5.9.7) Прн достаточно большом п эта вероятность приближенно равна вероятности попадания на отрезок I ровно т точзк, так как попада- ние двух или больше точек на отрезок Дх имеет пренебрежимо малую вероятность. Для того чтобы найти точное значение Рт. нужно в вы- ражении (5.9.7) перейти к пределу при л->со: (59-8) Преобразуем выражение, стоящее под знаком предела: Первая дробь и знаменатель последней дроби в выражении (5.9.9) лт при л->эо, очевидно, стремятся к единице. Выражение ~ от п не зависит. Числитель последней дроби можно преобразовать так: -iff- (5.9.10) При и-> зю > зю, и выражение (5.9.10) стремится к е а. Таким образом, доказано, что вероятность попадания ровно т точек в отрезок I выражается формулой где а— 1.1, т. е. величина А' распределена по закону Пуассона с па- раметром с = Х/. Отметим, что величина а по смыслу представляет собой среднее число точек, приходящееся на отрезок I. Величина Rr (вероятность того, что величина X примет положи- тельное значение) в данном случае выражает вероятность того, что на отрезок I попадет хотя бы одна точка: Rt=^\—e °. (5.9.11)
I 12 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ и ИХ ЗАКОНЫ РАСГП’ЕДЕЛЕНИЯ 1гл. в Таким образом, мы убедились, что распределение Пуассона воз- никает там, где какие-то точки (или другие элементы) занимают слу- чайное положение независимо друг от друга, и подсчитывается коли- чество этих точек, попавших в какую-то область. В нашем случае та- кой «областью» был отрезок I на оси абсцисс. Однако наш вывод легко распространить и на случай распределения точек на плоскости (слу- чайное плоское поле точек) и в пространстве (случайное простран- ственное поле точек). Нетрудно доказать, что если соблюдены условия: 1) точки распределены в поле статистически равномерно со сред- ней плотностью X; 2) точки попадают в иеперекрывающиеся области независимым образом; 3) точки появляются поодиночке, а не парами, тройками и т. д., то число точек X. попадающих в любую область D (плоскую или пространственную), распределяется по закон}' Пуассона: = ('" = 0.1,2....), где а — среднее число точек, попадающих в область D. Для плоского случая а = SCX, где SD — площадь области D\ для пространственного c = Vo-X, где VD — объем области D Заметим, что для наличия пуассоновского распределения числа точек, попадающих в отрезок или область, условие постоянной плот- ности (А = const) несущественно. Если выполнены два других условия, то закон Пуассона все равно имеет место, только параметр а в нем приобретает другое выражение: он получается не простым умноже- нием плотности X на длину, площадь или объем области, а инте- грированием переменной плотности по отрезку, площади или объему. (Подробнее об этом см. п° 19.4.) Наличие случайных точек, разбросанных на линии, на плоскости или объеме — не единственное условие, при котором возникает рас- пределение Пуассона. Можно, например, доказать, что закон Пуас- сона является предельным для биномиального распределения: Рт. п=С”рт (1 (5.9.12) если одновременно устремлять число опытов п к бесконечности, а вероятность р — к нулю, причем их произведение пр сохраняет постоянное значение: пр — а. (5.9.13)
ЗАКОН ПУАССОНА НЗ Действительно, это предельное свойство биномиального распре- деления можно записать в виде: lira (5.9.14) Но из условия (5.9.13) следует, что р=|. (5.9.15) Подставляя (5.9.15) в (5.9.14), получим равенство которое только что было доказано нами по другому поводу. Это предельное свойство биномиального закона часто находит применение на практике. Допустим, что производится большое коли- чество независимых опытов п, в каждом из которых событие А имеет очень малую вероятность р. Тогда для вычисления вероятности Pllh п того, что событие А появится ровно т раз, можно воспользоваться приближенней формулой Р„.„ «-"г- (5.9.17) где пр— а— параметр того закона Пуассона, которым приближенно заменяется биномиальное распределение. От этого свойства закона Пуассона — выражать биномиальное распределение при большом числе опытов и малой вероятности со- бытия — происходит его название, часто применяемое в учебниках статистики: закон редких явлений. Рассмотрим несколько примеров, связанных с пуассоновским рас- пред? лс-ннем, из различных областей практики. Пример I. На автоматическую телефонную станцию поступают вы- зовы со средней плотностью К визовое в час. Считая, что число вызовов на любом участке времени распределено по закону Пуассона, найти веройi- поегь того, что за две минуты па станцию поступит ровно три вызова. Решение. Среднее число вызовов за две минуты равно: ~ to “ зо • По формуле (5.9.1) вероятность поступления ровно трех вызовов равна: Га» г,=Т7Гз1 • Пример 2. В условиях предыдущего примера найти вероятность тою. чти за две минуты придет хотя бы один вызов.
114 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ |ГЛ. Б Решение. По формуле (5.9.4) имеем: /?, = !—«° = I — /Ч Пример 3. В тех же условиях найти вероятность того, что за две минуты придет не менее трех вызовов. Решение. По формуле (5.9.4) имеем: Пример 4. На ткацком станке нить обрывается в среднем 0.375 раза в течение часа работы станка. Найти вероятность того, что за смену (8 ча- сов) число обрывов нити будет заключено в границах 2 и 4 (не менее 2 и не более 4 обрывов). Решен и е. Очевидно, а — 0,375 -8 — 3, имеем: Р(2 < Х<4) = Р2 + Л + р<- По таблице 8 приложения при с —3 Р2 = 0.224; Р3 = 0,224; Р4 =0,168, Р (2 < X < 4) = 0,616. Пример 5. С накаленного катода за единицу времени вылетает в сред- нем q (/) электронов, где / — время, протекшее с начала опыта. Найти ве- роятность того, что за промежуток времени длительности т, начинающийся в момент /0. с катода вылетит ровно т электронов. Решение. Находим среднее число электронов а, вылетающих с ка- тода за данный отрезок времени. Имеем: (0 По выч тсленному а определяем искомую вероятность: Пример 6. Число осколков, попадающих в малоразмерную цель прн заданном положении точки разрыва, распределяется по закону Пуассона. Средняя плотность осколочного поля, в котором оказывается цель при дан- ном положении точки разрыва, равна 3 оск./ж2. Площадь цели равна S = = 0,5 ж2. Для поражения целя достаточно попадания в нее хотя бы одного осколка. Найти вероятность поражения цели при данном положении точки разрыва. Решение. <z = XS = l,5. По формуле (5.9.4) находим вероятность по- падания хотя бы одного осколка: = 1 — Г1’5 = 1 — 0,223 = 0,777. (Для вычисления значения показательной функции ° пользуемся таблицей 2 приложения.)
6 8] ЗАКОН ПУАССОНА 115 Пример 7. Средняя плотность болезнетворных микробов в одном кубическом метре воздуха равна 100. Берется на пробу 2дм3 воздуха.Наши вероятность того, что в нем будет обнаружен хотя бы один микроб. Решение. Принимая гипотезу о пуассоновском распределении числа микробов в объеме, находим: « = 0.1; /г, = 1-«-°'5я 1—0.819 я 0,18. Пример 8. По некоторой цели производится 50 независимых выстрелов Вероятность попадания в цель при одном выстреле равна 0.04. Пользуясь предельным свойством биномиального распределения (формула (5.9.17)), найти приближенно вероятность того, что в цель попадет; ин ojhoi о снаряда, один снаряд, два снаряда. Решение. Имеем а = пр — 50 0,04 = 2. По таблице 8 1рнложения находим вероятности: Ро = 0,135; Р4= 0,271; Р2 = 0,271.
ГЛАВА в НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ 6.1. Нормальный закон н его параметры Нормальный закон распределения (часто называемый законом Гаусса) играет исключительно важную роль в теории вероятностей и занимает среди других законов распределения особое положение. Это — наиболее часто встречающийся на практике закон распреде- ления. Главная особенность, выделяющая нормальный закон среди других законов, состоит в том. что он является предельным законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях. Можно доказать, что сумма достаточно большого числа незави- симых (или слабо зависимых) случайных величин, подчиненных каким угодно законам распределения (при соблюдении некоторых весьма нежестких ограничений), приближенно подчиняется нормальному за- кону. и это выполняется тем точнее, чем большее количество слу- чайных величин суммируется. Большинство встречающихся на прак- тике случайных величин, таких, например, как ошибки измерений, ошибки стрельбы и т. д., могут быть представлены как суммы весьма большого числа сравнительно малых слагаемых — элементарных оши- бок. каждая из которых вызвана действием отдельной причины, не втвисяшей от остальных. Каким бы законам распределения ин были подчинены отдельные элементарные ошибки, особенности этих рас- пределений в сумме большого числа слагаемых иивелируются. и сумма оказывается подчиненной закону, близкому к нормальному. Основное ограничение, налагаемое на суммируемые ошибки, состоит в том. чтобы они все равномерно играли в общей сумме относительно малую роль. Если это условие не выполняется и. например, одна из слу- чайных ошибок оквжется по своему влиянию на сумму резко прева- лирующей над всеми другими, то закон распределения этой прева- лирующей ошибки наложит свое влияние на сумму и определит в основных чертах ее закон распределения. Теоремы, устанавливающие нормальный закон как предельный для суммы независимых равномерно малых случайных слагаемых, будут подробнее рассмотрены в главе 13.
«И НОРМАЛЬНЫЙ ЗАКОН И ЕГО ПАРАМЕТРЫ 117 Нормальный закон распределения характеризуется плотностью вероятности вида: fM==T^e г" ' <6,1> Кривая распределения по нормальному закону имеет симметрия ный холмообразный вид (рис. 6.1.1). 1 равная —y.f- • соответствует точке х ~ т; по мере удаления от точки т плотность распределения падает, и при х—>±оо кривая асимптоти- чески приближается к оси абсцисс. Выясним смысл численных пара- метров т и о, входящих в выраже- ние нормального закона (6.1.1); до- кажем, что величина т есть не что иное, как математическое ожи- дание, а величина о — среднее Рис. С.1 L квадратическое отклонение вели- чины X. Для этого вычислим основные числовые характеристики ве- личины X — математическое ожидание и дисперсию. AI1Y)= = —с» Применяя замену переменной имеем: Л1|Л'1 = (6.1.2) Нетрудно убедиться, что первый из двух интервалов в формуле (6.1.2) равен нулю; второй представляет собой известный интеграл Эйлера — Пуассона; сю сю J е~‘ dt = 2 J" е-''dt = (6.1.3) —сю О
118 нормальный закон РАСПРЕДЕЛЕНИЯ |ГЛ в Следовательно, М[Х]=т, т. е. параметр т представляет собой математическое ожидание вели- чины X. Этот параметр, особенно в задачах стрельбы, часто назы- вают центром рассеивания (сокращенно — ц. р.). Вычислим дисперсию величины X: J (х~т*е " dx' Применив снова замену переменной имеем; Интегрируя по частям, получим: со D[Xj = -^r Г t -2te-‘‘dt = У я •/ Первое слагаемое в фигурных скобках равно нулю (так как e~fl при / —> эо убывает быстрее, чем возрастает любая степень /), вто- рое слагаемое по формуле (6.1.3) равно откуда О[Х] = 02. Следовательно, параметр а в формуле (6.1.1) есть не что иное, как среднее квадратическое отклонение величины X. Выясним смысл параметров т м а нормального распределения. Непосредственно из формулы (6.1,1) видно, что центром симметрии распределения является центр рассеивания т. Это ясно из того, что при изменении знака разности (х— т) на обратный выражение (6.1.1) не меняется. Если изменять центр рассеивания т. кривая распреде- ления будет смещаться вдоль оси абсцисс, не изменяя своей формы (рис. 6.1.2). Центр рассеивания характеризует положение распреде- ления на оси абсцисс. Размерность центра рассеивания—та же, что размерность слу- чайной величины X.
® >1 НОРМАЛЬНЫЙ ЗАКОН И ЕГО ПАРАМЕТРЫ 119 Параметр о характеризует не положение, а самую форму кривой распределения. Это есть характеристика рассеивания. Наибольшая ордината кривой распределения обратно пропорциональна с; при увеличении с максимальная ордината уменьшается. Так как площадь Рис. 6.1.2. кривой распределения всегда должна оставаться равной единице, то при увеличении о кривая распределения становится более плоской, растягиваясь вдоль оси абсцисс; напротив, при уменьшении о кривая распределения вытягивается вверх, одновременно сжимаясь с боков, и становится более иглообразной. На рис. 6.1.3 показаны три нор- мальные кривые (7. //, ///) при т = 0; из них кривая 7 соответствует самому большому, а кривая Ш — самому малому значению о. Изме- нение параметра о равносильно изменению масштаба кривой распре- деления— увеличению масштаба по одной осп и такому же умень- шению по другой. Размерность параметра с. естественно, совпадает с размерностью случайной величины X,
120 нормальный закон распределения [ГЛ. в В некоторых курсах теории вероятностей в качестве характери- стики рассеивания для нормального закона вместо среднего квадра- тического отклонения применяется так называемая мера точности. Мерой точности называется величина, обратно пропорциональная среднему квадратическому отклонению о: 1 a V2 ’ Л = Размерность меры точности обратна размерности случайной величины. Термин «мера точности» заимствован из теории ошибок измере- ний; чем точнее измерение, тем больше мера точности. Пользуясь мерой точности h, можно записать нормальный закон в виде: /(*) = 6.2. Моменты нормального распределения Выше мы доказали, что математическое ожидание случайной вели- чины, подчиненной нормальному закону (6.1.1). равно т. а среднее квадратическое отклонение равно а. Выведем общие формулы для центральных моментов любого по- рядка. По определению: р,= f (x—mf f(x)dx — = —i=- / (x — mfe 2,1 dx. Делая замену переменной x~m получим: __ f tse-pdt. (6.2.1) -И Применим к выражению (6.2.1) формулу' интегрирования по частям; —от («1^)'| I.-IV-1T , S-1 Г.г’-С’иЛ
62] МОМЕНТЫ НОРМАЛЬНОГО РАСПРЕДЕЛЕНИЯ 121 Имея в виду, что первый член внутри скобок равен нулю, получим: Ь=~f /”2' '’Л' <6-2’2) Из формулы (6.2.1) имеем следующее выражение для р^_2: Р5-г = ~’р=— f t^2e-‘'at. (6.2.3) — СО Сравнивая правые части формул (6.2.2) и (6.2.3), видим, что они отличаются между собой только множителем ($—1) а2; следовательно, (5- 1)<%_2. (6.2.4) Формула (6.2,4) представляет собой простое рекуррентное соот- ношение, позволяющее выражать моменты высших порядков через моменты низших порядков. Пользуясь этой формулой и имея в виду, что р0=1 ’) и р1==0, можно вычислить центральные моменты всех порядков. Так как р.1=0, то нз формулы (6.2.4) следует, что все нечетные моменты нормального распределения равны нулю. Эго, впрочем, непосредственно следует из симметричности нормального закона. Для четных s из формулы (6.2.4) вытекают следующие выражения Д1Я последовательных моментов: Н=»2: |14 = 3<А 1*5 = 15°® И т. д. Общая формула для момента s-ro порядка при любом четном s имеет вад: =(s— 1)1! as, где под символом (5—1)И понимается произведение всех нечетных чисел от 1 до $ — 1. Так как для нормального закона = 0. то асимметрия его также раина нулю: 5А = 4 = 0. а3 Из выражения четвертого момента р, = 3о’ имеем: *) Нулевой момент любой случайной величины равен единице как мате- матическое ожидание нулевой степени этой величины.
122 НОРМАЛЬНЫЙ закон РАСПРЕДЕЛЕНИЯ [ГЛ Я т. е. эксцесс нормального распределения равен нулю. Это и есте- ственно, так как назначение эксцесса — характеризовать сравнитель- ную крутость данного закона по сравнению с нормальным. 6.3. Вероятность попадания случайной величины, подчиненной нормальному закону, на заданный участок. Нормальная функция распределения Во многих задачах, связанных с нормально распределенными слу- чайными величинами, приходится определять вероятность попадания случайной величины X, подчиненной нормальному закону с пара- метрами т, а, на участок от а до {3. Для вычисления этой вероят- ности воспользуемся общей формулой Р (а < X < Р) = F (₽) — F (а). (6.3.1) где F (х)— функция распределения величины X. Найдем функцию распределения F (х) случайной величины X, распределенной по нормальному закону с параметрами т, а. Плот- ность распределения величины X равна: = (6 3 2) Отсюда находим функцию распределения /Х 1 /> (х-тр f(x)dx =—~ I е dx. (6.3.3) о У 2r, J Сделаем в интеграле (6.3.3) замену переменной х — т ( и приведем его к виду: л-т F(x)=-fU f (6.3.4) — CO Интеграл (6.3.4) не выражается через элементарные функции, но его можно вычислить через специальную функцию, выражающую определенный интеграл от выражения е~с или е 2 (так называемый интеграл вероятностей^ для которого составлены таблицы. Суще- ствует много разновидностей таких функций, например: Ф(х) = —^=- f e~,zdt‘t Ф, (х) = -L- Г е 2 di у2к J
в.З] НОРМАЛЬНАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 123 и т. д. Какой из этих функций пользоваться — вопрос вкуса. Мы выберем в качестве такой функции 1 Г ф*М = -^= / г 2 at. (6.3.5) Г и —со Нетрудно видеть, что эта функция представляет собой нс что иное, как функцию распределения для нормально распределенной случайной величины с параметрами т = 0, а==1. Условимся называть функцию Ф”(х) нормальной функцией распределения. В приложении (табл. 1) приведены таблицы зна- чений функции Ф’(х)1). Выразим функцию распределения (6.3.3) величины X с пара- метрами т и о через нормальную функцию распределения Ф*(х). Очевидно, Г(х) = Ф'(^21) (6.3.6) Теперь найдем вероятность попадания случайной величины X на участок от а до р. Согласно формуле (6.3.1) 7’(«<*<₽) = Ф*(Ь^-)-Ф’(=^). (6.3.7) Таким образом, мы выразили вероятность попадания на участок случайной величины X, распределенной по нормальному закону с любыми параметрами, через стандартную функцию распределе- ния Ф’(х). соответствующую простейшему нормальному закону с параметрами 0,1. Заметим, что аргументы функции Ф* в фор- муле (6.3.7) имеют очень простой смысл: - есть расстояние от правого конца участка f до центра рассеивания, выраженное а — т в средних квадратических отклонениях; —----такое же расстоя- ние для левого конца участка, причем это расстояние считается положительным, если конец расположен справа от центра рассеи- вания, и отрицательным, если слева. Как и всякая функция распределения, функция Ф*(х) облйдчет свойствами; 1. Ф*(—сю) —0. 2. Ф*(-|-оо)=1. 3. Ф'(а) — неубывающая функция. Кроме того, из симметричности нормального распределения с параметрами и = 0, о = 1 относительно начала координат сле- дует, что Ф*(—х)=1 —Ф’(х). (6.3.8) ’) Для облегчения интерполяции в таблицах рядом со значениями функ- ции приведены ее приращения за оцин шаг таблиц Д.
124 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ [ГЛ 0 Пользуясь этим свойством, собственно говоря, можно было бы ограничить таблицы функции Ф*(х) только положительными значе- ниями аргумента, но, чтобы избежать лишней операции (вычитание из единицы), в таблице 1 приложения приводятся значения Ф* (х) как для положительных, так и для Отрицательных аргументов. На практике часто встречается задача вычисления вероятности по- падания нормально распределен- ной случайной величины на уча- сток, Симметричный относительно центра рассеивания т. Рассмотрим такой участок длины 2/ (рис. 6.3.1). Вычислим вероятность попадания на этот участок по формуле (6.3.7): Р (т — I < X < m -|-I) — = ф. (±) _<!>•(_ (6.3.S) Учитывая свойство (6,3.8) функции Ф* (х) и придавая левой части формулы (6.3.9) более компактный вид. получим формулу для вероят- ности попадания случайной вели- чины. распределенной по нормаль- ному закону, на участок, симме- тричный относительно центра рас- сеивания: /’(|Л-И|<0 = 2Ф*(у)-1. (6.3.10) Решим следующую задачу. От- ложим от центра рассеивания т последовательные отрезки дли- ной о (рис. 6.3.2) и вычислим ве- роятность попадания случайной величины X в каждый из них. Так как кривая нормального закона симметрична, достаточно отложить такие Отрезки только в одну сторону. По формуле (6.3.7) находим: Р(т < X <ш-|-а) = Ф*(1) — Ф*(0) = = 0.8413 — 0.5000^0.341; P(m+ о< X </лЧ-2а) = Ф*(2) — Ф‘(1)« Р(т + 2а < X < т + За) = Фф (3) — Ф* (2) » Р(т + За < X < т + 4с) = Ф* (4) — Ф* (3) » 0.136; 0.012; 0,001. (6.3.11)
6.31 НОРМАЛЬНАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 125 Как видно из этих данных, вероятности попадания на каждый из следующих отрезков (пятый, шестой н т. д.) с точностью до 0.001 равны нулю. Округляя вероятности попадания в отрезки до 0,01 (до 1%). получим три числа, которые легко запомнить: 0.34; 0,14; 0,02. Сумма этих трех значений равна 0.5. Это значит, что для нор- мально распределенной случайной величины все рассеивание (с точ- ностью до долей процента) укладывается на участке т + За. Это позволяет, зная среднее квадратическое отклонение и мате- матическое ожидание случайной величины, ориентировочно указать интервал ее практически возможных значений. Такой способ оценки диапазона возможных значений случайной величины известен в мате- матической статистике под названием оправило трех сигма». Из правила трех сйгма вытекает также ориентировочный способ опреде- ления среднего квадратического Отклонения случайной величины: берут максимальное практически возможное отклонение от среднего и делят его на три. Разумеется, этот грубый прием может быть рекомен- дован, только если нет других, более точных способов определения а. Пример 1. Случайная величина X, распределенная по нормальному закону, представляет собой ошибку измерения некоторого расстояния. При измерении допускается систематическая ошибка в сторону завышения на 1.2 (.ч). среднее квадратическое отклонение ошибки измерения равно 0,8 (.ч). На пт и вероятность того, что отклонение измеренного значения от истинного нс превзойдет по абсолютной величине 1,6 (ж). Решение. Ошибка измерения есть случайная величина X, подчинен- ная нормальному закону с параметрами т = 1,2 и а = 0,8. Нужно найти вероятность попадания этой величины на участок от а = —1,6 до ₽ =+ 1,6. По формуле (6.3.7) имеем: Р (-1.6 < х < = = «=Ф*(0,5) —Ф* (—3,5). Пользуясь таблицами функции Ф'(х) (приложение, табл. 1), найдем: Ф‘ (0,5) = 0,6915; Ф* (—3,5) = 0,0002, откуда Р (-1,6 < X < 1,6) = 0,6915 — 0,0002 = 0,6913 « 0,691. Пример 2. Найти ту же вероятность, что в предыдущем примере, но при условии, что систематической ошибки нет. Решение. По формуле (6.3.10), полагая /=1,6, найдем: Р(|Х| < 1.6)=2®«(l|j-l Я 0.955. Пример 3. По цели, имеющей вид полосы (автострада), ширина кото- рой равна 20 м, ведется стрельба в направлении, перпендикулярном авто- страде. Прицеливание ведется по средней линии автострады. Среднее
126 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ [ГЛ 6 квадратическое отклонение в направлении стрельбы равно а = 8 м. Имеется систематическая ошибка в и а правлен ин стрельбы: недолет 3 м. Найти вероят- ность попадания в автостраду при одной чыегреле. Решение. Выберем начало координат в любой точке на средней липин автострады (рис. 6.3.3) и направим ось абсцисс перпендикулярно автостраде. Попадание пли непопадание снаряда в автостраду определяется значением только одной координаты точки падения X (другая координата Y нам без- различна). Случайная величина X распределена по нормальному закону с параметрами /п = — 3, о = 8, Попадание снаряда в автостраду соответ- ствует попаданию величины X на участок от а = — 10 до 0 = 4-10. При- меняя формулу (6.3.7), имеем: Р(-10<Л< |0)-Ф,(Д3.) —j)-®* (1.625) — «•(— 0,875) «0.757. Пример 4. Имеется случайная величина Л,’нормально распределенная, с центром рассеивания т (рис. 63.4) и некоторый участок (а, р) оси абсцисс. Каково должно быть среднее квадратическое отклонение с случайной вели- чины X для того, чтобы вероятность попадания р на участок (о, 0) дости- гала максимума? Решение. Имеем: р = Р (а < X < ₽) = Ф- (1—= » (") Продифференцируем эту функцию величины а: но
В.41 ВЕРОЯТНОЕ [СРЕДИННОЕ) ОТКЛОНЕНИЕ 127 Применяя правило дифференцирования дащей в его предел, получим: интеграла по переменной, вхо- р — т - -—-=^-е зЧ 2г. Аиалогичпо Ц1Я нахождения экстремума положим: [*- »«)* ¥'(=)“-гт7=Л (*-'»)» 211 -(?-«)/ ) (М.12) cJ) 2r. I ! При а —оо это выражение обращается в нуль к вероятность /' достигает минимума. Максимум р получим из условия (a-w)1 с- И1р (< — т)е 2,1 — ('<— га) г *' =0 (0.313) Уравнение (6.3.13) можно решить численно или графически. 6.4. Вероятное (срединное) отклонение В ряде областей практических применений теории вероятностей (в частности, в теории стрельбы) часто, наряду со средним квадрати- ческим отклонением, пользуются еще одной характеристикой рассеи- вания, так называемым вероятным, или срединным, отклонением. Вероятное отклонение обычно обозначается буквой Е (иногда By. Вероятным [срединным) отклонением случайной величины X, распределенной по нормальному закону, называется половина длины участка, симметричного относительно центра рассеивания, вероятность попадания в который равна половине. Геометрическая интерпретация вероятного отклонения показана на рис. 6.4.1. Вероятное отклонение Е— это половина длины участка осн абсцисс, симметричного относительно точки т, на кото- рый опирается половина площади кривой распределения. Поясним смысл термина «срединное отклонение» или «срединная ошибка», которым часто пользуются в артиллерийской практике вместо «вероятного отклонения».
128 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ [ГЛ 0 Рассмотрим случайную величину X. распределенною по нормаль- ному закону. Вероятность того, что она отклонится от центра рас- сеивания т меньше чем на Е, по Определению вероятного откло- нения Е, равна Р(|Л-т|<£) = | (6.4.1) Вероятность того, что опа Отклонится от т больше чем на Е. тоже равна Р(|Х-т]>£) = |. Таким образом, при большом числе опытов в среднем половина значений случайной величины X отклонится от т больше чем на Е, а половина — меньше. Отсюда и термины «срединная ошибка», «срединное отклонение». Очевидно, вероятное отклонение, как характеристика рассеивания, должно находиться в прямой зависимости от среднего квадратиче- ского отклонения а. Установим эту зависимость. Вычислим ве- роятность события X — т | < <Е в уравнении (6.4.1) по формуле (6.3.10). Имеем: Р(| X- т |< £) = Отсюда (£) = { = 0.75. (6.4.2) Рис. 6.4 По таблицам функции Ф*(х) можно найти такое значение аргумента х, при котором она равна 0,75. Это значение аргумента приближенно равно 0,674; отсюда £ = 0.674; £ = 0.674с. (6.4.3) Таким образом, зная значение а, можно сразу найти пропорцио- нальное ему значение Е. Часто пользуются еше такой формой записи этой зависимости: (6.4.4) где р — такое значение аргумента, при котором одна из форм инте- грала вероятностей—так называемая функция Лапласа £ = р/2 а. г о
6.41 ВЕРОЯТНОЕ (СРЕДИННОЕ) ОТКЛОНЕНИЕ 129 — равна половине. Численное значение величины р приближенно равно 0.477. В настоящее время вероятное отклонение, как характеристика рассеивания, все больше вытесняется более универсальной характе- ристикой а. В ряде областей приложений теории вероятностей она сохраняется лишь по традиции. Если в качестве характеристики рассеивания принято вероятное отклонение Е, то плотность нормального распределения ззпнсывается а виде: /W = -J(6.4.5) Еу -к а вероятность попадания на участок от а до р чаще всего записы- вается в виде: Р(а<х<₽) = (6.4.6) где Р-Г Ф« = -₽ f (6.4.7) V * / —так называемая приведен- ная функция Лапласа. Сделаем подсчет, аналогич- ный выполненному в преды- дущем п° для среднего квадратического отклонения а: отложим от центра рассеивания т последовательные отрезки длиной в одно вероятное отклонение Е (рис. 6.4.2) и подсчитаем вероятности попа- дания в эти отрезки с точностью до 0,01. Получнм: /;(И< 0.25; Р(т±Е< X <т 4-2Е)«0.16; Р(т -f- 2Е < X < т 4- 3£) » 0.07; Р(т 4- АЕ < X < т 4- 4£) ж 0.02. [ Отсюда видно, что с точностью до 0,01 все значения нормально [распределенной случайной величины укладываются на участке т ± 4Е. Пример Самолет-штурмовик производит обстрел колонны войск ротивннка, ширина которой равна 8 м. Полет — вдоль колонны, прнцелк- •imie— по средней линии колонны; вследствие скольжения имеется систе- матическая ошибка: 2 м вправо но направлению полета. Главны? вероятные йслонения: по направлению полета Вл = 15 м. в боковом направлении [йория вероятногте!)
130 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ [ГЛ в Вб = 5 м. Не имея в своем распоряжении никаких таблиц интеграла вероятностей, а зная только числа: 25%. 16%, 7%, 2%, оценить грубо-приближеино вероятность попадания в колоину при одном выстреле и вероятность хотя бы одного попадания при трех независимых выстрелах. Решение. Для решения задачи достаточно рассмотреть одну коорди- нату точки попадания — абсциссу X в направлении, перпендикулярном колонне. Эта абсцисса распределена по нормальному закону с центром рассеивания т=2 и вероятным отклонением Вс = £ = 5(л). Отложим мысленно от центра рассеивания в ту и другую сторону отрезки длиной в 5 М. Вправо от центра рассеивания цель занимает участок 2 м, который составляет 0,4 вероятного отклонения. Вероятность попадания на этот участок приближенно равиа: 0,4-25% =0.1. Влево от центра рассеивания цель занимает участок 6 м. Это — целое вероятное отклонение (5 л), вероятность попадания в которое равна 25% плюс часть длиной 1 м следующего (второго от центра) вероятного откло- нения, вероятность попадания в которое равна 16%. Вероятность попадания в часть длиной 1 м приближенно равна: У-1696 =0.03. Таким образом, вероятность попадания в колонну приближенно равна: 0,14-0,254-0.03 = 0,38. Вероятность хотя бы одного попадания при трех выстрелах равна; Rx = 1 — (1 — 0.38)3 к 0.76.
ГЛАВА 7 ОПРЕДЕЛЕНИЕ ЗАКОНОВ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН НА ОСНОВЕ ОПЫТНЫХ ДАННЫХ 7.1. Основные задачи математической статистики Математические законы теории вероятностей не являются беспред- метными абстракциями, лишенными физического содержания; они представляют собой математическое выражение реальных закономер- ностей, фактически существующих в массовых случайных явлениях природы. До сих пор, говоря о законах распределения случайных величин, мы не затрагивали вопроса О том, откуда берутся, на каком осно- вании устанавливаются эти законы распределения. Ответ на вопрос вполне определенен — в основе всех этих характеристик лежит опыт; каждое исследование случайных явлений, выполняемое методами тео- рии вероятностей, прямо нли косвенно опирается на эксперименталь- ные данные. Оперируя такими понятиями, как события и их вероят- ности, случайные величины, их законы распределения и числовые характеристики, теория вероятностей дает возможность теоретиче- ским путем определять вероятности одних событий через вероятности других, законы распределения и числовые характеристики одних случайных величин через законы распределения и числовые характе- ристики'. других. Такие косвенные методы позволяют значительно экономить время и средства, затрачиваемые на эксперимент, но отнюдь не исключают самого эксперимента. Каждое исследование в области случайных явлений, как бы отвлеченно оно ни было, корнями своими всегда уходит в эксперимент, в опытные данные, в систему наблюдений. Разработка методов регистрации, описвния н анализа статисти- ческих экспериментальных даннцх. получаемых в результате наблю- дения массовых случайных явлений, составляет предмет специальной науки — математической статистики. Все задачи математической статистики касаются вопросов обра- ботки наблюдений над массовыми случайными явлениями, но в зави- симости от характера решаемого практического вопроса и от объема
132 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ- 7 имеющегося экспериментального материала эти задачи могут прини- мать ту или иную форму. Охарактеризуем вкратце некоторые типичные задачи математи- ческой статистики, часто встречаемые на практике. 1. Задача определения закона распределения случайной величины (или системы случайных величин) по статистическим данным Мы уже указывали, что закономерности, наблюдаемые в массо- вых случайных явлениях, проявляются тем точнее и отчетливее, чем больше объем статистического материала. При обработке обширных по своему объему статистических данных часто возникает вопрос об определении законов распределения тех или иных случайных величии. Теоретически при достаточном количестве опытов свойственные этим случайным величинам закономерности будут осуществляться сколь угодно точно. На практике нам всегда приходится иметь дело с огра- ниченным количеством экспериментальных данных; в сбязн с этим результаты наших наблюдений и их обработки всегда содержат боль- ший или меньший элемент случайности. Возникает вопрос о том, какие черты наблюдаемого явления относятся к постоянным, устойчивым и действительно присущи ему» а какие являются случайными и про- являются в данной серин наблюдений только за счет ограниченного объема экспериментальных данных. Естественно, к методике обра- ботки экспериментальных данных следует предъявить такие требо- вания. чтобы она. по возможности, сохраняла типичные, характерные черты наблюдаемого явления и отбрасывала все несущественное, второстепенное, связанное с недостаточным объемом опытного мате- риала. В связи с этим возникает характерная для математической статистики задача сглаживания или выравнивания стати- стических данных, представления их в наиболее компактном виде с помощью простых аналитических зависимостей. 2. Задача проверки правдоподобия гипотез Эта задача тесно связана с предыдущей; прн решении такого рода задач мы обычно не располагаем настолько обширным стати- стическим материалом, чтобы выявляющиеся в нем статистические вакономерности были в достаточной мере свободны От элементов случайности. Статистический материал может с ббльшим или меньшим правдоподобием подтверждать или не подтверждать справедливость той или иной гипотезы. Напрнмер, может возникнуть такой вопрос: согласуются ли результаты эксперимента с гипотезой о том что данная случайная величина подчинена закону распределения Р(лр Другой подобный вопрос; указывает ли наблюденная в опыте тен-|
7.2] СТАТИСТИЧЕСКАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 133 денция к зависимости между двумя случайными величинами на нали- чие действительной Объективной зависимости между ними или же она объясняется случайными причинами, связанными с недостаточным объемом наблюдений? Для решения подобных вопросов математи- ческая статистика выработала ряд специальных приемов. 3. Задача нахождения неизвестных параметров распределения Часто при обработке статистического материала вовсе нс возни- кает вопрос об определении законов распределения исследуемых слу- чайных величин. Обыкновенно это бывает связано с крайне недоста- тсчиым объемом экспериментального материала. Иногда же характер закона распределения качественно известен до опыта, нз теоретических соображений; например, часто можно утверждать заранее, что случай- ная величина подчинена нормальному закону. Тогда возникает более узкая задача обработки наблюдений — определить только некоторые параметры (числовые характеристики) случайной величины нлн системы случайных величин. При небольшом числе опытов задача более или менее точного определения этих параметров не может быть решена; в этих случаях экспериментальный материал содержит в себе неиз- бежно значите тьный элемент случайности; поэтому случайными ока- зываются и все параметры, вычисленные на основе этих данных. В таких условиях может быть поставлена только задача об опреде- лении так называемых «оценок» или «подходящих значений» для искомых параметров, т. е. таких приближенных значений, которые прн массовом применении приводили бы в среднем к меньшим ошиб- кам, чем всякие другие. С задачей отыскания «подходящих значений» числовых характеристик тесно связана задача оценки их точности и надежности. С подобными задачами мы встретимся в главе 14. Таков далеко не полный перечень основных задач математиче- ской статистики. Мы перечислили только те нз них, которые наиболее важны для нас по своим практическим применениям. В настоящей главе мы вкратце познакомимся с некоторыми, наиболее элементар- ными задачами математической статистики и с методами их решения. 7.2. Простая статистическая совокупность. Статистическая функция распределения Предположим, что изучается некоторая случайная величина X. закон распределения которой в точности неизвестен, и требуется определить этот закон из опытв или проверить экспериментально гипотезу о том. что величина X подчинена тому или иному закону. С этой целью над случайной величиной X производится ряд незави- t шых опытов (наблюдений). В каждом из этих опытов случайная
134 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН 1ГЛ. 7 величина X принимает определенное значение. Совокупность наблю- денных значений величины и представляет собой первичный стати- стический материал, подлежащий обработке, осмыслению и научному анализу. Такая совокупность называется «простой статистической совокупностью» или «простым статистическим рядом». Обычно про- стая статистическая совокупность оформляется в виде таблицы с од- ним входом, в первом столбце которой стоит номер опыта I, а во втором — наблюденное значение случайной величины. Пример 1. Случайная величина ₽ — угол скольжения самолета в мо- мент сбрасывания бомбы '). Произведено 20 бомбометаний, в каждом из ко- торых зарегистрирован угол скольжения р в тысячных долях радиана. Результаты наблюдений сведены в простой статистический ряд; 1 *1 *1 1 1 -20 8 —30 15 —10 2 -60 9 120 16 20 3 —10 10 —100 17 30 4 30 11 —80 18 —80 5 60 12 20 19 60 6 70 13 40 20 70 7 -10 14 -60 Простой статистический ряд представляет собой первичную форму записи статистического материала и может быть обработан различными способами. Одним из способов такой обработки является построение статистической функции распределения случайной величины. Статистической функцией распределения случайной вели- чины X называется частота события X < х в данном стати- стическом материале'. Г(х) = Р*(Х<х). (7.2.1) Для того чтобы найти значение статистической функции распре- деления при данном х, достаточно подсчитать число опытов, в ко- торых величина X приняла значение, меньшее чем х, и разделить на общее число п произведенных опытов. Пример 2, Построить статистическую функцию распределения для случайной величины р, рассмотренной в предыдущем примере* 2). ') Под углом скольжения подразумевается угол, составленный векторои скорости и плоскостью симметрии самолета. 2) Здесь и во многих случаях далее, при рассмотрении конкретных прак- тических примеров, мы не будем строго придерживаться правила — обозна- чать случайные величины большими буквами, а их возможные значения — соответствующими малыми буквами. Если это не может привести к недора- зумениям, мы в ряде случаев будем обозначать случайную величину и ее возможное значение одной и гой же буквой.
СТАТИСТИЧЕСКАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ 135 Решение. Гак как наименьшее наблюденное значение величины равпэ —100, то /•(—100) = 0. Значение —109 наблюдено один раз, его час юга равна следовательно, в точке —100 имеет скачок, равви ft В промежутке от—100 до — 80 функция F*O) имеет значение с точис — О происходит скачок функции /г*(8) на так как значение — 80 не- ба ю who дважды, и т. г. График сгатнсшческои функции распределения величины представлен iu ряс. 7.2.1. Статистическая функция распределения любой случайной вели- чины— прерывной или непрерывной — представляет собой прерывную еггпенчагую функцию, скачки которой соответствуют наблюденным значениям случайной величины и по величине равны частотам этих значений. Если каждое отдельное значение случайной величины .V было наблюдено только один раз, скачок статистической функции распределения в каждом наблюденном значении равен где п — число наблюдений. Прн увеличении числа опытов п. согласно теореме Бернулли, при любом х частота события X < х приближается (сходится по вероят- ности) к вероятности этого события. Следовательно, при увеличе- нии » статистическая функция распределения F* (л) приближается (сходиия по вероятности) к подлинной функции распределения F(x) случайной величины X. Если X — непрерывная случайная величина, то прн увеличении числа наблюдений п число скачков функции Л'* (х) увеличивается, самые скачки уменьшаются и график функции F* (х) неограниченно приближается к плавной кривой Л(х)— функции распределения ве- личины X.
136 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ 7 В принципе построение статистической функции распределения уже решает задачу описания экспериментального материала. Одиако при большом числе опытов п построение F* (х) описанным выше способом весьма трудоемко. Кроме того, часто бывает удобно — в смысле наглядности — пользоваться другими характеристиками ста- тистических распределений, аналогичными не функции распределе- ния F(x), а плотности /(х). С такими способами описания стати- стических данных мы познакомимся в следующем параграфе. 7.3. Статистический ряд. Гистограмма При большом числе наблюдений (порядка сотен) простая стати- стическая совокупность перестает быть удобной формой записи статистического материала — она становится слишком громоздкой и мало наглядной. Для придания ему большей компактности и на- глядности статистический материал должен быть подвергнут до- полнительной обработке — строится так называемый «статистиче- ский ряд». Предположим, что в нашем распоряжении результаты наблюдений над непрерывной случайной величиной X, оформленные в виде про- стой статистической совокупности. Разделим весь диапазон наблю- денных значений X на интервалы или «разряды» и подсчитаем ко- личество значений тг приходящееся на каждый /-Й разряд. Это число разделим на общее число наблюдений п и найдем частоту, соответ- ствующую данному разряду: (7.3.1) Сумма частот всех разрядов, очевидно, должна быть равпх единице. Построим таблицу, в которой приведены разряды в порядке и< расположения вдоль оси абсцисс и соответствующие частоты. Эта таблица называется статистическим рядом’. х,; Ха х2: ха Х{. Х» + , xk> xk i А Р. Pi Рн Здесь lt — обозначение /-го разряда; х,, х/+1— его границы; — соответствующая частота; А— число разрядов.
7.3] статистический ряп. гистограмма 137 Пример 1 Прошведено 5U0 измерений боковой ошибки наводки пр i стрельбе с самолета но наземной цели. Результаты измерений (а тысячных долях радиана) сведены в статистический ряд; h -4; —3 —3; —2 —2; — 1 -to 0.1 1; 2 2; 3 3; 4 mi 6 25 72 133 120 88 46 10 p'l 0,012 0,050 0,1 И 0.266 0,240 0,176 0.092 0,020 Здесь обозначены интервалы значений ошибки назодки; — число наб- людений в данном интервале, р" =» — соответствующие частоты. При группировке наблюденных значений случайной величины по разрядам возникает вопрос о том. к какому разряду отнести значе- ние. находящееся в точности на границе двух разрядов. В этих случаях можно рекомендовать (чисто условно) считать данное зна- чение принадлежащим в равной мере к обоим разрядам и прибав- лять к числам т, того и другого разряда по у. Число разрядов, на которые следует группировать статистический материал, не должно быть слишком большим (тогда ряд распреде- ления становится невыразительным, н частоты в нем обнаруживают незакономерные колебания); с другой стороны, оно не должно быть слишком малым (при малом числе разрядов свойства распределения описываются статистическим рядом слишком грубо). Практика пока- зывает. что в большинстве случаев рационально выбирать число разрядов порядка 10 — 20. Чем богаче и однороднее статистический материал, тем большее число разрядов можно выбирать при состав- лении статистического ряда. Длины разрядов могут быть как одина- ковыми, так и различными. Проще, разумеется, брать их одинаковы- ми. Однако при оформлении данных о случайных величинах, рас- пределенных крайне неравномерно, иногда бывает удобно выбирать s области наибольшей плотности распределения разряды более узкие, чем в области малой плотности. Статистический ряд часто оформляется графически в виде так называемой гистограммы- Гистограмма строится следующим обра- зом. По оси абсцисс откладываются разряды, и на каждом из раз- рядов как их основании строится прямоугольник, плошадь которого равна частоте данного разряда. Для построения гистограммы нужно “кт-.эту каждого разряда разделить на его длину и полученное число взять в качестве высоты прямоугольника. В случае равных по длине
138 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. разрядов высоты прямоугольников пропорциональны соответствующим частотам. Из способа построения гистограммы следует, что полная и лошадь ее равна единице. В качестве примера можно привести гистограмму для ошибки наводки, построенную по данным статистического ряда, рассмотрен ного в примере 1 (рис. 7.3.1). Очевидно, при увеличении числа опытов можно выбирать вс более и более мелкие разряды; при этом гистограмма будет вс более приближаться к некоторой кривой, ограничивающей площадь равную единице. Нетрудно убедиться, что эта кривая собой график плотности распределения величины X. Пользуясь данными статистического ряда, можно построить и статистическую функцию распределения Построение точной статистической функции распределения с несколь- кими сотнями скачков во веек наблюденных значениях X слишком трудоемко построить точкам. В разрядов, очевидно. представляет приближенно величины X. и себя не оправдывает. Для практики обычно достаточно статистическую функцию распределения по несколько качестве этих точек удобно взять границы xv х2, -. которые фигурируют в статистическом ряде. Тогд /=•(«,) = 0; F’ С*з) = р' + Рг1 (7.3.
Т.4] ХАРАКТЕРИСТИКИ СТАТИСТИЧЕСКОГО РАСПРЕДЕЛЕНИЯ 139 Соединяя полученные точки ломаной линией или плавной кривой, получим приближенный график статистической функции распреде- ления. Пример 2. Построить приближенно статистическую функцию распре- деления ошибки наводки по данным статистического ряда примера 1. Решение. Применяя формулы (7.3.2), имеем: Л(-4) = 0: F* (—3) = 0,012; Г (—2) = 0.012 + 0,050 = 0.062; F*(—l) = 0,206; F*(0)= 0,472; F* (I) =0,712; F* (2) =0,888; F*(3) = 0.980; F* (4) = 1,000. Приближенный график статистической функции распределения дан на рис. 7.3.2. 7.4. Числовые характеристики статистического распределения В главе 5 мы ввели в рассмотрение различные числовые харак- теристики случайных величии: математическое ожидание, дисперсию, начальные и центральные моменты различных порядков. Эти число- вые характеристики играют большую роль в теории вероятностей. Аналогичные числовые характеристики существуют и для статисти- ческих распределений. Каждой числовой характеристике случайной величины X соответствует ее статистическая аналогия. Для основной характеристики положения — математического ожидания случайной величины—такой аналогией является среднее арифметическое наблю- денных значений случайной величины: л У. (7.4.1) где xt — значение случайной величины, наблюденное в l-м опыте. п — число опытов.
140 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН |ГЛ. 1 Эту характеристику мы будем в дальнейшем называть стати- стическим средним случайной величины. Согласно закону больших чисел, при неограниченном увеличении числа опытов статистическое среднее приближается (сходится по ве- роятности) к математическому ожиданию. При достаточно большом п статистическое среднее может быть принйто приближенно равным математическому ожиданию. При ограниченном числе опытов стати- стическое среднее является случайной величиной, которая, тем не меиее, связана с математическим ожиданием и может дать о нем известное представление. Подобные статистические аналогии существуют для всех число- вых характеристик. Условимся в дальнейшем эти статистические аналогии обозначать теми же буквами, что и соответствующие чис- ловые характеристики, но снабжать их значком *. Рассмотрим, например, дисперсию случайной величины. Она пред- ставляет собой математическое ожидание случайной величины Х*=(Х — тх)Ъ D[X}~ М [А2] = М ((X — mxft. (7.4.2) Если в этом выражении заменить математическое ожидание его статистической аналогией — средним арифметическим, мы получим статистическую дисперсию случайной величины А'; D’|X-J = ^—---------. (7 4 3) где /Их=ЛГрП — статистическое среднее. Аналогично определяются статистические начальные и централь- ные моменты любых порядков: п 2^ = . (7 44) п 2(^-0’ р:[Х1 = ^—----------. (7 4.5) Все эти определения полностью аналогичны данным в главе б определениям числовых характеристик случайной величины, с той разницей, что в них везде вместо математического ожидания фигу- рирует среднее арифметическое. 1*1ри увеличении числа наблюдений, очевидно, все статистические характеристики будут сходиться по вероятности к соответствующим математическим характеристикам i и при достаточном п могут быть приняты приближенно равными нм.
7.41 ХАРАКТЕРИСТИКИ СТАТИСТИЧЕСКОГО РАСПРЕДЕЛЕНИЯ 141 Нетрудно доказать, что Д1Я статистических начальных и цен- тральных моментов справедливы те же свойства, которые были выве- дены в главе 5 для математических моментов. В частности, стати- стический первый центральный момент всегда равен нулю: t*; = ‘1 „ = <=<—">= °- Соотношения между центральными и начальными моментами также сохраняются: п п = ал-б) И Т. Д. При очень большом количестве опытов вычисление характеристик по формулам (7.4.1)—(7.4.5) становится чрезмерно громоздким, и можно применить следующий прием: воспользоваться теми же разрядами, на которые был расклассифицирован статистический материал для построения статистического ряда или гистограммы, и считать приближенно значение случайной величины в каждом разряде постоянным и равным среднему значению, которое выступает в роли «представителя» разряда. Тогда статистические числовые характе- ристики будут выражаться приближенными формулами: и‘ = лГ(А'| = 2 х,р’ (7.4.7) = О |Х| = ^(Xj-m^pJ, (7.4.8) = (7.4.9) I- I lhf*l = £(*/ —O’p’. (7.4.10) I где X/ — «представитель» /го разряда, p* — частота /-го разряда. k—число разрядов. Как видно, формулы (7.4.7) — (7.4.10) полностью аналогичны формулам nrn° 5.6 и 5.7, определяют нм математическое ожидание, дисперсию, начальные и центральные моменты прерывной случайной
142 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 величины А', с той только разницей, что вместо вероятностей pt в них стоят частоты р*, вместо математического ожидания тх — ста- тистическое среднее /п*. вместо числа возможных значений случайной величины — число разрядов. В большинстве руководств по теории вероятностей и математической статистике при рассмотрении вопроса о статистических аналогиях для харак- теристик случайных величин применяется терминология, несколько отличная or принятой в настоящей книге, а именно, статистическое среднее именуется «выборочным средним», статистическая дисперсия—«выборочной дисперсией» и т. д. Происхождение этих терминов следующее. В статистике, особенно сельскохозяйственной и биологической, часто приходится исследовать распре- детеине того или иного признака для весьма большой совокупности индиви- дуумов, образующих статистический коллектив (таким признаком может быть, например, содержание белка в зерне пшеницы, вес того же зерна, длина или вес тела какого-либо из группы животных и т. д.). Данный признак является случайной величиной, значение которой от индивидуума к индивидууму меняется. Однако, для того, чтобы составить представление о распределении этой случайной величины или о ее важнейших характери- стиках. ист необходимости обследовать каждый индивидуум данной обширной совокупности; можно обследовать некоторую выборку достаточно боль- шого объема для того, чтобы в ней были выявлены существенные черты изучаемого распределения. Та обширная совокупность, нз которой произво- дится выборка, носит в статистике название генеральной совокупности. При этом предполагается, что число членов (индивидуумов) N в генеральной совокупности весьма велико, а число членов п в выборке ограничено. При достаточно большом N оказывается, что свойства выборочных (статисти- ческих) распределений и характеристик практически ие зависят от N-, отсюда естественно вытекает математическая идеализация, состоящая в том, что генеральная совокупность, из которой осуществляется выбор, имеет беско- нечный объем. При этом отличают точные характеристики (закон распределе- ния, математическое ожидание, дисперсию и т. д.), относящиеся к генераль- ной совокупности, от аналогичных им «выборочных» характеристик. Выбо- рочные характеристики отличаются от соответствующих характеристик генеральной совокупности за счет ограниченности объема выборки я; при неограниченном увеличении п, естественно, все выборочные характери- стики приближаются (сходятся по вероятности) к соответствующим характе- ристикам генеральной совокупности. Часто возникает вопрос о том, каков должен быть объем выборки п для того, чтобы по выборочным характеристи- кам можно было с достаточной точностью судить о неизвестных характерис- тиках генеральной совокупности или о том, с какой степенью точности при заданном объеме выборки можно судить о характеристиках генеральной сово- купности. Такой методический прием, состоящий в параллельном рассмотрения бесконечной генеральной совокупности, из которой осуществляется выбор, н ограниченной по объему выборки, является совершенно естественным в тех областях статистики, где фактически приходится осуществлять выбор из весьма многочисленных совокупностей индивидуумов. Для практических задач, связанных с вопросами стрельбы и вооружения, гораздо более характерно другое положение, когда иад исследуемой случайной величиной (или системой случайных величин) производится ограниченное число on.тов с целью определить те или иные характеристики этой величины, на । имер, когда с целью исследования закона рассеивания при стрельбе производится некоторое количество выстрелов, или с целью исследования ошибки наводки производится серия опытов, в каждом из которых ошибка иаводки регистрируется с помощью фотопулемета, и т. д. При этом ограни-
7.5] ВЫРАВНИВАНИЕ СТАТИСТИЧЕСКИХ РЯДОВ 143 ценное число опытов связано не с трудностью регистрации п обработки, а со сложностью и дороговизной каждого отдельного опыта. В этом случае с известной натяжкой можно также произведенные п опытов мысленно рас- сматривать как «выборку» из некоторой чисто условной «генеральной сово- купности», состоящей нз бесконечного числа возможных или мыслимые опытов, которые можно было бы произвести в данных условиях. Однако искусственное введение такой гипотетической «генеральной совокупности» при данной постановке вопроса не вызвано необходимостью и вносит в рас- смотрение вопроса, по существу, излишний элемент идеализации, не выте- кающий из непосредственной реальности задачи. Поэтому мы в данном курсе не пользуемся терминами «выборочное среднее , «выборочная дисперсия», «выборочные характеристики» и т. д., заменяя их терминами «статистическое среднее», «статистическая дисперсия», «статистические характеристики». 7.6. Выравнивание статистических рядов Во всяком статистическом распределении неизбежно присутствуют элементы случайности, связанные с тем, что число наблюдений ограничено, что произведены именно те, а не другие опыты, давшие именно те, а не другие результаты. Только при очень большом числе наблюдений эти элементы случайности сглаживаются, и случайное явление обнаруживает в полной мере присущую ему закономерность. На практике мы почти никогда не имеем дела с таким большим числом наблюдений и вынуждены считаться с тем, что любому ста- тистическому распределению свойственны в большей или меньшей мере черты случайности. Поэтому при обработке статистического материала часто приходится решать вопрос о том, как подобрать для данного статистического ряда теоретическую кривую распределения, выражающую лишь существенные черты статистического материала, но не случайности, связанные с недостаточным объемом эксперимен- тальных данных. Такая задача называется задачей выравнивания (сглаживания) статистических рядов. Задача выравнивания заключается в том, чтобы подобрать теоре- тическую плавную кривую распределения, с той или иной точки зрения наилучшим образом описывающую данное статистическое рас- пределение (рис. 7.5.1). Задача о наилучшем выравнивании статистических рядов, как п вообще задача о наилучшем аналитическом представлении эмпири- ческих функций, есть задача в значительной мере неопределенная, и решение ее зависит от того, чтб условиться считать «наилучшим». Например, при сглаживании эмпирических зависимостей очень часто исходят из так называемого принципа или метода наименьших квадратов (см. п° 14.5), считая, что наилучшим приближением к эмпи- рической зависимости в данном классе функций является такое, при котором сумма квадратов отклонений обращается в минимум. При этом вопрос о том, в каком именно классе функций следует искать нап- лучшее приближение, решается уже не из математических сообра-
[44 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 жений, а из соображений, связанных с физикой решаемой задачи, с учетом характера полученной эмпирической кривой и степени точ- ности произведенных наблюдений. Часто принципиальный характер функции, выражающей исследуемую зависимость, известен заранее из теоретических соображений, из опыта же требуется получить лишь некоторые численные параметры, входящие в выражение функции; именно эти параметры подбираются с помощью метола наименьших квадратов. Аналогично обстоит дело и с задачей выравнивания статистиче- ских рядов. Как правило, принципиальный вид теоретической кривой выбирается заранее из соображений, связанных с существом задачи, а в некоторых случаях просто с внешним видом статистического распределения. Аналитическое выражение выбранной кривой распре- деления зависит от некоторых параметров; задача выравнивания ста- тистического ряда переходит в задачу рационального выбора тех значений параметров, при которых соответствие между статистиче- ским и теоретическим распределениями оказывается наилучшим. Предположим, например, что исследуемая величина X есть ошибка измерения, возникающая в результате суммирования воздействий множества независимых элементарных ошибок; тогда из теоретических соображений можно считать, что величина X подчиняется нормаль- ному закону: (7Ч и задача выравнивания переходит в задачу о рациональном выборе параметров т и о в выражении (7.5.1). Бывают случаи, когда заранее известно, что величина X распре- деляется статистически приблизительно равномерно на некотором
ВЫРАВНИВАНИЕ СТАТИСТИЧЕСКИХ РЯДОВ 145 интервале: тогда можно поставить задачу о рациональном выборе параметров того закона равномерной плотности I-j-i— при а < х < ₽. О при х < а или х > р. которым можно наилучшим образом заменить (выровнять) заданное статистическое распределение. Следует при этом иметь в виду, что любая аналитическая функ- ция f (х), с помощью которой выравнивается статистическое распреде- ление, должна обладать основными свойствами плотности распределения: J f(x)dx = 1. (7.5.2) Предположим, что, исходя из тех иля иных соображений, нами выбрана функция /(х). удовлетворяющая условиям (7.5.2). с помощью которой мы хотим выровнять данное статистическое распределение; в выражение этой функции входит несколько параметров а, Ь, ...; требуется подобрать эти параметры так, чтобы функция /(х) паи- лучшим образом описывала данный статистический материал. Один из методов, применяемых для решения этой задачи, — это так назы- ваемый метод моментов. Согласно методу моментов, параметры а, Ь, ... выбираются с таким расчетом, чтобы несколько важнейших числовых характеристик (моментов) теоретического распределения были равны соответствующим статистическим характеристикам. Например, если теоретическая кри- вая f(x) зависит только от двух параметров а и Ь, эти параметры выбираются так, чтобы математическое ожидание mt и дисперсия Dx теоретического распределения совпадали с соответствующими стати- стическими характерце гиками тх и Dx- Если кривая / (х) зависит от трех параметров, можно подобрать их так, чтобы совпали первые три .момента, и т. д. При выравнивании статистических рядов может оказаться полезной специально разработанная система кривых Пир- сона, каждая из которых зависит в общем случае от четырех пара- метров. При выравнивании эти параметры выбираются с тем расче- том, чтобы сохранить первые четыре момента статистического рас- пределения (математическое ожидание, дисперсию, третий и четвертый моменты)1). Оригина тьцый набор кривых распределения, построенных *) См., например, В. И. Романовский, Математическая статистика, ОНТИ. 1939.
146 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 7 по иному принципу, дал Н. А. Бородачей1). Принцип, на котором строится система кривых Н, А. Бородачева. заключается в том, что выбор типа теоретической кривой основывается не на внешних формальных признаках, а на анализе физической сущности случай- ного явления или процесса, приводящего к тому или иному закону распределения. Следует заметить, что при выравнивании статистических рядов нерационально пользоваться моментами порядка выше четвертого, так как точность вычисления моментов резко падает с увеличением их порядка. Пример. 1. В п° 7.3 (стр. 137) приведено статистическое распределе- ние боковой ошибки наводки X при стрельбе с самолета по наземной цели. Требуется выровнять это распределение с помощью нормального закона: (х-т)' Решение. Нормальный закон зависит от двух параметров: т и а. Подберем этн параметры так, чтобы сохранить первые два момента — мате- матическое ожидание и дисперсию — статистического распределения. Вычислим приближенно статистическое среднее ошибки иаводки по фор- муле (7.4.7), причем за представителя каждого разряда примем его середину; « — 3.5 • 0,012 — 2,5 0,050 — 1,5 • 0,144 — 0Л • 0,266 + 0,5 • 0,240 4- +1Л • 0,176 4- 2^. 0,092 4- 3,5 • 0,020 = 0,168. Для определения дисперсии вычислим сначала второй начальный момент по формуле (7.4.9), полагая s = 2, k — 8 «; = 2^*=2-126- 1=1 Пользуясь выражением дисперсии через второй начальный момент (фор- мула (7.4.6)), получим: D* = oj — (и’)2 = 2,126 — ОЛ28 — 2,098. Выберем параметры т и о нормального закона так, чтобы выполнялись условия: т = тп# о2 = £)*, то есть примем: m =0.168; с =1.448. Напишем выражение нормального закона: (jr-0,W /(л)--------Ь— 1,448 /2« ’) Н. А. Б о р о д а ч е п, Основные вопросы теории точности произ- водства, АП СССР, М. — Л.. 1950.
7.5] ВЫРАВНИВАНИЕ СТАТИСТИЧЕСКИХ РЯДОВ 147 Пользуясь в табл. 3 приложения, вычислим значения /(л) на границах разрядов X -4 -3 —2 —1 0 1 3 4 /W 0,004 0,025 0,090 0,199 0,274 0,234 0,124 0.041 0,008 Построим иа одном графике (рис, 7.5.2) гистограмму и выравнивающую ее кривую распределения. Из графика видно, что теоретическая кривая распределения f (х), гроз- ная, в основном существенные особенности статистического распределении, свободна от случайных неправильностей хода гистограммы, которые, по-види- мому, могут быть отнесены за счет случайных причин; более серьезное обоснование последнему суждению будет дано в следующем параграфе. Примечание. В данном примере при определении D, мы вос- пользовались выражением (7.4.6) статистической дисперсии через второй начальный момент. Этот прием можно рекомендовать только в случае, когда математическое ожидание т* исследуемой случайной величины X сравнительно невелико; в противном случае фор- мула (7.4.6) выражает дисперсию Dx как разность близких чисел и дает весьма малую точность. В случае, когда это имеет место, ре- комендуется либо вычислять Dx непосредственно по формуле (7.4.3), либо перенести начало координат в какую-либо точку, близкую к гпх, и затем применить формулу (7.4.6). Пользование формулой (7.4.3) равносильно перенесению начала координат в точку ли*; это может
148 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН 1ГЛ 7 оказаться неудобным, так как выражение и* может быть дробным, и вычитание т’ из каждого xt при этом излишне осложняет вычис- ления; поэтому рекомендуется переносить начало координат в ка- кое-либо круглое значение х, близкое к т*. Пример 2. С целью исследования зайоиа распределения ошибки из- мерения дальности с помощью радиодальномера произведено 400 измерений дальности. Результаты опытов представлены в виде статистического ряда: ли 20, 30 30; 40 40; 50 50; 60 60; 70 70; 80 80; 90 90; 100 21 72 66 38 51 56 64 32 л 0.052 0,180 0,165 0,095 0.128 0,140 0,160 0,080 Выровнять статистический ряд с помощью закона равномерной плотности. Решение. Закон равномерной плотности выражается формулой 1 0 —° о /(*) = при а < х < Р; при х < о или X > р и зависит от двух параметров а и ₽ Эти параметры следует выбрать так, чтобы сохранить первые два момента статистического распределения — мате- матическое ожидание п"х и дисперсию Из примера п°5.8 имеем выражения математического ожидания н дисперсии для закона равномерной плотности: Г---2~. DK 12 ' Для того чтобы упростить вычисления, связанные с определением статисти- ческих моментов, перенесем начало отсчета в точку л0 = 60 и примем за представителя каждого разряда его середину. Ряд распределения примет вид: X -35 -25 —15 -5 5 15 25 35 А 0.052 0,180 0,165 0,095 0,128 0,140 0,160 0,080 где — среднее для разряда значение ошибки радиодальномера X' при но- вом начале отсчета.
КРИТЕРИИ СОГЛАСИЯ 149 Приближенное значение статистического среднего ошибки X' равно: = 2лл=0-26- Второй статистический момент величины X' равен: “j= i (х;)!₽;=447д откуда статистическая дисперсия: £)•, = а* — (/»’ /)2 = 447,7. Переходя к прежнему началу отсчета, получим новое статистическое среднее: /п* = ,-f- СО = 60,26 п ту же статистическую дисперсию: D* = £>*, =447,7. Параметры закона равномерной плот- неет и определяются уравнениями: 60,26; = 447,7. Решая sth уравнения относительно а и р, имеем: а «23,6: р ж 96,9, откуда ^^=₽^-=4з«00136- На рис. 7.5.3. показаны гистограмма и выравнивающий ее закон равномерной плотности / (х). 7.6. Критерии согласия В настоящем п° мы рассмотрим один из вопросов, связанных с проверкой правдоподобия гипотез, а именно—вопрос о согласован- ности теоретического и статистического распределения. Допустим, что данное статистическое распределение выравнено с помощью некоторой теоретической кривой / (х) (рис. 7.6.1). Как бы хорошо ни была подобрана теоретическая кривая, между нею и статистическим распределением неизбежны некоторые расхождения. Естественно возникает вопрос: объясняются ли эти расхождения только случайными обстоятельствами, связанными с ограниченным числом наблюдений, или они являются существенными и связаны с тем. что подобранная нами кривая плохо выравнивает данное ста- тистическое распределение. Для ответа на такой вопрос служат так называемые «критерии согласиях».
150 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ 7 Идея применения критериев согласия заключается в следующем. На основании данного статистического материала нам предстоит проверить гипотезу Н, состоящую в том. что случайная величина X подчиняется некоторому определенному закону распределения. Этот вакон может быть задан в той или иной форме: например, в виде функции распределения F(x) или в виде плотности распределения /(х), •или же в виде совокупности вероятностей pt, где р{ — вероятность того, что величина X попадет в пределы i-ro разряда. f(x) Рис. 7.61. Так как из этих форм функция распределения F (х) является наиболее общей и определяет собой любую другую, будем форму- лировать гипотезу Н, как состоящую в том, что величина X имеет функцию распределения F (х). Для того чтобы принять или опровергнуть гипотезу Н, рассмот- рим некоторую величину U, характеризующую степень расхожде- ния теоретического и статистического распределений. Величина U может быть выбрана различными способами; например, в качестве U можно взять сумму квадратов отклонений теоретических вероятно- стей Pi от соответствующих частот р* или же сумму тех же квад- ратов с некоторыми коэффициентами («весами»), или же максимальное отклонение статистической функции распределения F*(x) от теоре- тической F(x) и т. д. Допустим, что величина U выбрана тем или иным способом. Очевидно, это есть некоторая случайная величина. Закон распределения этой случайной величины зависит от вакона распределения случайной величины X, иад которой производились опыты, и от числа опытов п. Если гипотеза Н верна, то закон рас- пределения величины U определяется законом распределения вели- чины X (функцией F(x)) и числом п. Допустим, что этот закон распределения нам известен. В ре- ультате данной серии опытов обнаружено, что выбранная нами мера
7.6] КРИТЕРИИ СОГЛАСИЯ 151 расхождения U приняла некоторое значение и. Спрашивается, можно л» объяснить это случайными причинами или же это расхождение слишком велико и указывает иа наличие существенной разницы между теоретическим и статистическим распределениями н, следовательно, на непригодность гипотезы Н? Для ответа на этот вопрос предпо- ложим, что гипотеза Н верна, и вычислим в этом предположении вероятность того, что за счет случайных причин, связанных с недо- статочным объемом опытного материала, мера расхождения U ока- жется не меньше, чем наблюденное нами в опыте значение и. т. е. вычислим вероятность события: Если эта вероятность весьма мала, то гипотезу*// следует отверг- нуть как мало правдоподобную; если же эта вероятность значительна, следует признать, что экспериментальные данные ие противоречат гипотезе Н. Возникает вопрос о том, каким же способом следует выбирать меру расхождения 1Л Оказывается, что при некоторых способах ее выбора закон распределения величины U обладает весьма простыми свойствами и при достаточно большом п практически ие зависит от функции Г(х'). Именно такими мерами расхождения и пользуются в математической статистике в качестве критериев согласия. Рассмотрим один из наиболее часто применвемых критериев со- гласия— так называемый «критерий у2» Пирсона. Предположим, что произведено п независимых опытов, в каждом из которых случайная величина X приняла определенное значение. Результаты опытов сведены в k разрядов и оформлены в виде ста- тистического рада: 6 Ль Л, л8; л. А А Р1 Требуется проверить, согласуются ли экспериментальные данные с гипотезой о том, что случайная величина X имеет данный закон распределения (заданный функцией распределения F (х) или плот- ностью / (х)). Назовем этот закон распределения «теоретическим». Зная теоретический закон \ распределения, можно найти теорети- ческие вероятности попаданий случайной величины в каждый из разрядов: А. Р2......Ръ- Проверяя согласованность теоретического и статистического рас- пределений. мы будем исходить из расхождений между теоретиче- скими вероятностями pt и наблюденными частотами pj. Естественно
152 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ 1 выбрать в качестве меры расхождения между теоретическим и ста- тистическим распределениями сумму квадратов отклонений (pj— pj, взятых с некоторыми «весами» с{: (7.6.1) Коэффициенты ct («веса» разрядов) вводятся потому, что в общем случае отклонения, относящиеся к различным разрядам, нельзя счи- тать равноправными по значимости. Действительно, одно и то же по абсолютной величине отклонение р* — р{ может быть мало значитель- ным, если сама вероятность pt велика, и очень заметным, если она мала. Поэтому естественно «веса» ct взять обратно пропорциональ- ными вероятностям разрядов pt. Далее возникает вопрос о том. как выбрать коэффициент про- порциональности. К. Пирсон показал, что если положить = (7.6.2) то при больших п закон распределения величины U обладает весьма простыми свойствами: он практически не зависит от функции рас- пределения Г(х') и от числа опытов п, а зависит только от числа разрядов k. а именно, этот закон при увеличении п приближается к так называемому «распределению у2»’). При таком выборе коэффициентов q мера расхождения обычно обозначается у2; Х2 = п У (7.6.3) £ й Для удобства вычислений (чтобы не иметь дела с дробными ве- личинами с большим числом нулей) можно ввести п под знак суммы *) Распределением х2 с г степенями свободы называется распределений суммы квадратов г независимых случайных величин, каждая из которых под- чинена нормальному закону с математическим ожиданием, равным нулю, н дисперсией, равной единице Это распределение характеризуется плотное! i. -j прн и > О, при и < О, со где Г (а) = J* ta~}e~rdt— известная гамма-функция, о
КРИТЕРИИ СОГЛАСИЯ J53 МП и. учитывая, что где — число значений в t-м разряде, привести формулу (7.6.3) к виду: (7.С4) ("1 Распределение у2 зависит от параметра г, называемого числом «сте- пеней свободы» распределения. Число «степеней свободы» г равно числу разрядов k минус число независимых условий («связей»), на- ложенных на частоты р*. Примерами таких условий могут быть 2p;=i. 1=1 если мы требуем только того, чтобы сумма частот была равиа еди- нице (это требование накладывается во всех случаях); 2 xLp\ =mt, если мы подбираем теоретическое распределение с тем условием, чтобы совпадали теоретическое и статистическое средние значения; * У (х, — niy р\ = Dx, если мы требуем, кроме того, совпадения теоретической и стати- стической дисперсий и т. д. Для распределения у2 составлены спениальные таблицы (см. табл. 4 приложения). Пользуясь этими таблицами, можно для каждого зна- чения у2 и числа степеней свободы г найти вероятность р того, что величина, распределенная по закону у2- превзойдет это значение. В табл, 4 входами являются: значение вероятности р и число степе- ней свободы г. Числа, стояшие в таблице, представляют собой соот- ветствующие значения х2- Распределение х2 лает возможность оценить степень согласован- ности теоретического и статистического распределений. Будем исхо- дить из того, что величина X действительно распределена по закону Г(х). Тогда вероятность р. определенная по таблице, есть вероятность того, что за счет чисто случайных причин мера расхож- дения теоретического и статистического распределений (7.6.4) будет не меньше, чем фактически наблюденное в данной серии опытов значение х2. Если эта вероятность р весьма мала (настолько мала, чю событие с такой вероятностью можно считать практически невозможным), то результат опыта следует считать противоречащим гипотезе Н о том. что закон распределения величины X есть f\x). Эту
154 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН 1ГЛ. 1 гипотезу следует отбросить как неправдоподобную. Напротив, если вероятность р сравнительно велика, можно признать расхождения меж- ду теоретическим и статистическим распределениями несущественными и отнести их за счет случайных причин. Гипотезу Н о том, что величина X распределена по закону Г(.х), можно считать правдо- подобной или, по крайней мере, не противоречащей опытным данным. Таким образом, схема применения критерия у2 к оценке согласо- ванности теоретического и статистического распределений сводится к следующему. 1) Определяется мера расхождения у2 по формуле (7.6.4). 2) Определяется число степеней свободы г как число разрядов k минус число наложенных связей s: Г = k — S. 3) По г и х2 с помощью табл. 4 определяется вероятность того, что величина, имеющая распределение %2 с г степенями свободы, пре- взойдет данное значение у2. Если эта вероятность весьма мала, гипо- теза отбрасывается как неправдоподобная. Если эта вероятность относительно велика, гипотезу можно признать не противоречащей опытным данным. Насколько мала должна быть вероятность р для того, чтобы от- бросить или пересмотреть гипотезу,—вопрос неопределенный; он не может быть решен из математических соображений, так же как и вопрос о том, насколько мала должна быть вероятность события для того, чтобы считать его практически невозможным. На практике, если р оказывается меньшим чем 0,1, рекомендуется проверить экспе- римент, если возможно — повторить его и в случае, если заметные расхождения снова появятся, пытаться искать более подходящий для описания статистических данных закон распределения. Следует особо отметить, что с помощью критерия у2 (или любого другого критерия согласия) можно только в некоторых случаях опро- вергнуть выбранную гипотезу Н и отбросить ее как явно несо- гласную с опытными данными; если же вероятность р велика, то этот факт сам по себе ни в коем случае не может считаться доказатель- ством справедливости гипотезы Н, а указывает только на то, что гипотеза не противоречит опытным данным. С первого взгляда может показаться, что чем больше вероят- ность р, тем лучше согласованность теоретического и статистиче- ского распределений и тем более обоснованным следует считать выбор функции F(x) в качестве закона распределения случайной величины. В действительности это ие так. Допустим, например, что, оценивая согласие теоретического и статистического распределена! по критерию у?. мы получили р = 0,99. Эго значит, что с вероятно- стью 0,99 за счет часто случайных причин при данном числе опытов
КРИТЕРИИ СОГЛАСИЯ 155 7.6) должны были получиться расхождения ббльшие, чем наблюденные. Мы же получили относительно весьма малые расхождения» которые слишком малы для того, чтобы признать их правдоподобными. Разум- нее признать, что столь близкое совпадение теоретического и стати- стического распределений не является случайным и может быть объяснено определенными причинами, связанными с регистрацией и обработкой опытных данных (в частности, с весьма распространенной на практике «подчисткой» опытных данных, когда некоторые резуль- таты произвольно отбрасываются или несколько изменяются). Разумеется, все эти соображения применимы только в тех слу- чаях» когда количество опытов п достаточно велико (порядка несколь- ких сотен) и когда имеет смысл применять сам критерий, осно- ванный на предельном распределении меры расхождения при п—>оо. Заметим, что при пользовании критерием х2 достаточно большим должно быть не только общее число опытов п, но и числа наблюдений mt в отдельных разрядах. На практике рекомендуется иметь в каждом разраде не менее 5—10 наблюдений. Если числа наблюдений в от- дельных разрядах очень малы (порядка 1 — 2), имеет смысл объеди- нить некоторые разряды. Пример 1. Проверить согласованность теоретического н статистического распределений для примера 1 п° 7.5 (стр. 137, 146). Решение. Пользуясь теоретическим нормальным законом распределе- ния с параметрами т — 0,168, а=1,448, находим вероятности попадания в разряды по формуле где х1г Х[+1 — границы г-го разряда. Затем составляем сравнительную таблицу чисел попаданий в разряды mi и соответствующих значений npi (я = 500). /< —4; -3 -3; —2 —2; —1 —1; о 0; 1 1; 2 % 3 3; 4 6 25 72 133 120 88 46 10 npi 6.2 26,2 71,2 122,2 131,8 90,5 38,2 10,5 По формуле (7.6.4) определяем значение меры расхождения Х’ = у /fl nPi Определяем число степеней свободы как число разрядов минус число наложенных связей s (в данном случае s = 3): г = 8 —3 = 5.
J 56 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН |ГЛ 7 По табл. 4 приложения находим для г = 5: при Xs = 3,00 р — 0 70; при х2 = 4>35 р = 0,50. Следовательно, искомая вероятность р при у2 = 3,94 приближенно равна 0,56. Эта вероятность малой не является; поэтому гипотезу о том, что ве- личина X распределена по нормальному закону, можно считать правдоподобной. Пример 2. Проверить согласованность теоретического и статистиче- ского распределений для условий примера 2 п° 7.5 (стр. 149). Решение. Значения pi вычисляем как вероятности попадания на участки (20; 30), (30; 40) и т. д. для случайной величины, распределенной по закону равномерной плотности на отрезке (23,6; 96,9). Составляем сравнительную таблицу значений /щ и npi (я = 400); h 20; 30 30; 40 40; 50 50; 60 60; 70 70; 80 80; 90 90; 100 /и, 21 72 68 38 51 56 64 32 npi 34,9 54,6 54,6 54,6 54,6 54,6 54,6 38,0 По формуле (7.6.4) находим /2: -Л = V (mi ~ пР‘^ ~ 20 9. "Pi Число степеней свободы; г = 8 —3 —5. По табл. 4 приложения имеем: при ха = 20,5 и г = 5 р = 0.001, Следовательно, наблюденное нами расхождение между теоретическим и статистическим распределениями могло бы за счет чисто случайных причин появиться лишь с вероятностью рх 0,001. Так как эта вероятность очень мала, следует признать экспериментальные данные противоречащими гипотезе о том, что величина X распределена по закону равномерной плотности. Кроме критерия у2, для оценки степени согласованности теорети- ческого и статистического распределений на практике применяется еще ряд других критериев. Из них мы вкратце остановимся на кри- терии А. Н. Колмогорова. В качестве меры расхождения между теоретическим и статисти- ческим распределениями А. Н. Колмогоров рассматривает максималь- ное значение модуля разности между статистической функцией рас- пределения Г* (х) и соответствующей теоретической функцией рас- пределения: D = max | F* (л) — F (л) |. Основанием для выбора в качестве меры расхождения величины D является простота ее вычисления. Вместе с тем она имеет достаточно
76! КРИТЕРИИ СОГЛАСИЯ 157 простой вакон распределения. А. Н. Колмогоров доказал, что, какова бы ни была функция распределения F (х) непрерывной случайной ве- личины X, при неограниченном возрастании числа независимых на- блюдений п вероятность неравенства стремится к пределу Р(Х) = 1— 2 (_ !)»,-«« (7.6.5) А=— со Значения вероятности Р(Х), подсчитанные по формуле (7.6.5), приведены в таблице 7.6.1. Таблица 7.6.1 Схема применения критерия А. Н. Колмогорова следующая: строят- ся статистическая функция распределения Г*(х) и предполагаемая теоретическая функция распределения Г(х), и определяется макси- мум D модуля разности между ними (рис. 7.6.2). Далее, определяется величина
158 ЗАКОНЫ РАСПРЕДЕЛЕНИЙ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 1 и по таблице 7.6.1 находится вероятность Р(Х). Это есть вероят- ность того, что (если величина К действительно распределена по закону F (л)) за счет чисто случайных причин максимальное расхож- дение между F* (х) и F (х) будет не меньше, чем фактически наблю- денное. Если вероятность Р(Х) весьма мала, гипотезу следует отверг- нуть как неправдоподобную; при сравнительно больших Р (X) ее можно считать совместимой с опытными данными. Критерий А. Н. Колмогорова своей простотой выгодно отличается от описанного ранее критерия у2; поэтому его весьма охотно при- меняют иа практике. Следует, однако, оговорить, что этот критерий можно применять только в случае, когда гипотетическое распреде- ление F (х) полностью известно заранее из каких-либо теоретиче- ских соображений, т. е. когда известен не только вид функции рас- пределения F (х), но и все входящие в нее параметры. Такой случай сравнительно редко встречается на практике. Обычно из теоретиче- ских соображений известен только общий вид функции F (х), а вхо- дящие в нее числовые параметры определяются по данному стати- стическому материалу. При применении критерия у2 это обстоятельство учитывается соответствующим уменьшением числа степеней свободы распределения у2. Критерий А. Н. Колмогорова такого согласования не предусматривает. Если- все же применять этот критерий в тех случаях, когда параметры теоретического распределеиия выбираются по статистическим данным, критерий дает заведомо завышенные зна- чения вероятности Р(Х); поэтому мы в ряде случаев рискуем принять как правдоподобную гипотезу, в действительности плохо согласую- щуюся с опытными данными.
ГЛАВА 8 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН 8.1. Понятие о системе случайных величин В практических применениях теории вероятностей очень часто приходится сталкиваться с задачами, в которых результат опыта описы- вается не одной случайной величиной, а двумя или более случайными величинами, образующими комплекс или систему. Например, точка попадания снаряда определяется не одной случайной величиной, а двумя: абсциссой и ординатой — и может быть рассмотрена как ком- плекс двух случайных величии. Аналогично точка разрыва дистан- ционного снаряда определяется комплексом трех случайных величин. При стрельбе группой из п выстрелов совокупность точек попада- ния на плоскости может рассматриваться как комплекс или система 2« случайных величин: п абсцисс и п ординат точек попадания. Осколок, образовавшийся при разрыве снаряда, характеризуется рядом случай- ных величин: весом, размерами, начальной скоростью, направлением полета и т. д. Условимся систему нескольких случайных величин Л. К.....W обозначать (X. Y.....W). Свойства системы нескольких случайных величин ис исчерпываются свойствами отдельных величин, ее составляющих: помимо этого, они включают также взаимные связи (зависимости) между случайными вели- чинами. При рассмотрении вопросов, связанных с системами случайных ве- личин, удобно пользоваться геометрической интерпретацией системы. Например, систему двух случайных величин (X. Y) можно изобра- жать случайной точкой на плоскости с координатами X и Y 1рис. 8.1.1). Аналогично система трех случайных величин может быть изображена случайной точкой в трехмерном пространстве. Часто бы- зиет удобно говорить о системе п случайных величин как о «случай- ной точке в пространстве п измерений». Несмотря на то, что послед- няя интерпретация не обладает непосредственной наглядностью, полк - вовапне ею дает некоторый выигрыш в смысле общности терминоле) кк и упрощения записей.
160 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ 8 Часто вместо образа случайной то ч к и для геометрической интерпретации системы случайных величин пользуются образом слу- чайного вектора. Систему двух случайных величин при этом рассматривают как случайный вектор на плоскости хОу. составляющие которого по осям представляют собой случайные величины X, Y (рис. 8.1.2). Система трех случайных величин изображается случайным вектором в трехмерном пространстве, система п случайных величин — случайным вектором в пространстве п измерений. При этом теория систем случайных величин рассматривается как теория случайных некто ров. В данном курсе мы будем в зависимости от удобства изложен! а пользоваться как одной, так и другой интерпретацией. Занимаясь системами случайных величин, мы будем рассматривать как полные, исчерпывающие вероятностные характеристики—законы распределения, так и неполные — числовые характеристики. Изложение начнем с наиболее простого случая системы двух слу- чайных величин. 8.2. Функция распределения системы двух случайных величин Функцией распределения системы двух случайных величин (X. К) называется • вероятность совместного выполнения двух неравенств Х<х н Y<y: F(x. y) = P(tX <х)(¥ <?}). (8 2.1) Если пользоваться для геометрической интерпретации системы образом случайной точки, то функция распределения F (х, у) есть не что иное, как вероятность попадания случайной точки (X, И) в бесконечный квадрант с вершиной в точке (х. у), лежащий левее
ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ ВЕЛИЧИН 161 п ниже ее (рис. 8.2.1). В аналогичной интерпретации функция рас- пределения одной случайной величины X— обозначим ее F, (л) — представляет собой вероятность попада- ния случайной точки в полуплоскость. ограниченную справа абсциссой х (рис. 8.2.2); функция распределения од- ной величины У — Г2(у)— вероятность попадания в полуплоскость, ограничен- ную сверку ординатой у (рис. 8.2.3). В п 5.2 мы привели основные свой- итва функции распределения Г(х) для одной случайной величины. Сформули- руем аналогичные свойства для функ- ции распределения системы случай- ных величин и снова воспользуемся геометрической интерпретацией для Рис. 8.2.1. наглядной иллюстрации этих свойств. 1. Функция распределения F(x, у) есть неубывающая функция обоих своих аргументов, т. е. при х2 > xt при У2>>’1 П*,. У)>/?(Х1. у); Fix. y£^F(x. у,). В этом свойстве функции F(x) можно наглядно убедиться. Поль- зуясь геометрической интерпретацией функции распределения как вероятности попадания в квадрант с вершиной (дс, у) (рис. 8.2.1). Действительно, увеличивая х (смещая Рис. 822. Рис. 8.2.3. правую границу квадранта вправо) или увеличивая у (смещая верх- нюю границу вверх), мы, очевидно, не можем уменьшить вероят- ность попадания в этот квадрант. О Теория верой i плетей
162 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. в 2. Повсюду на —оо функция распределения равна нулю: F(x, —co) = F(—оо, y) = F(—со, —оо) = 0. В этом свойстве мы наглядно убеждаемся, неограниченно отодви- гая влево правую границу квадранта (х —> — со) или вниз его верх- нюю границу (у—> — со) или делая это одновременно с обеими гра- ницами; при этом вероятность попадания в квадрант стремится к нулю. 3. При одном из аргументов, равном -|- оо, функция распреде- ления системы превращается в функцию распределения случайной величины, соответствующей другому аргументу; F (х. + со) = F, (х). F (+ со, у) = (у). где FjGv). F2(y)—соответственно функции распределения случайных величин X и Y. В этом свойстве функции распределения можно наглядно убе- диться, смещая ту или иную из границ квадранта на -j-oo; при этом в пределе к в ад раит превращается в полуплоскость, вероятность попадания в которую есть функция распределения одной из величин, входящих в систему. 4. Если оба аргумента равны -|-оо, функция распределения си- стемы равна единице: ^(+оо. Ч-оо) = 1. Действительно, при х—>-|-оо, у —> Ц-оо квадрант с вершиной (х, у) в пределе обращается во всю плоскость хОу, попадание в которую есть достоверное событие. у При рассмотрении законов распределе- ния отдельных случайных величин (глава 5) мы вывели выражение для вероятности по- падания случайной величины в пределы rll и 7 заданного участка. Эту вероятность мы выра- зияи как чеРез Функцию распределения. так п через плотность распределения. j х Диалогичным вопросом для системы двух Рис. 82.4. случайных величин является вопрос о ве- роятности попадания случайной точки (А'.К) в пределы заданной области D на плоскости хОу (рис. 8.2.4). Условимся событие, состоящее в попадании случайной точки (X, И) в область D. обозначать символом (X. Y) с D. Вероятность попадания случайной точки в заданную область вы- ражается наиболее просто а том случае, когда эта область пред- ставляет собой прямоугольник со сторонами, параллельными коорди- натным ОСЯМ. Выразим через функцию распределения системы вероятность по- падания случайной точки (X. Y) в прямоугольник Л. ограничен- ный абсциссами а и р и ординатами т л 8 (рис. 8.2.0).
В.з] ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ ВЕЛИЧИН 163 При этом следует условиться, куда мы будем относить Гранины прямоугольника. Аналогично тому, как мы делали для одной случай- ной величины, условимся включать в прямоугольник R его нижнюю и левую границы и не включать верхнюю и правую1). Тогда собы- тие (X, Y)cR будет равносильно произведению двух событий: о^.Х<Р и т^У<8. Выразим вероятность этого робытия через Рис. 8 2 6. функцию распределения системы. Для этого рассмотрим на плоскости хОу четыре бесконечных квадранта с вершинами в точках (р, Б); (а. В); (р. 7) и (а. 7) (рис. 8.2.6). Очевидно, вероятность попадания в прямоугольник R равна ве- роятности попадания в квадрант (р, 8) минус вероятность попадания в квадрант (а. 8) минус вероятность попадания в квадрант (р, у) плюс вероятность попадания в квадрант (а. 7) (так как мы дважды вычли вероятность попадания в этот квадрант). Отсюда получаем формулу, выражающую вероятность попадания в прямоугольник через функцию распределения системы: Р((Х, K)c/?)=F(₽. 8) —F(a, 8) —f(₽. T)4-F(a. i). (8.2.2) В дальнейшем, когда будет введено понятие плотности распреде- ления системы, мы выведем формулу для вероятиости попадания случайной точки в область произвольной формы. 8,3. Плотность распределении системы двух случайных величин Введенная в предыдущем п° характеристика системы — функция распределения — существует для систем любых случайных величии, как прерывных, так и непрерывных. Основное практическое значение *) На рис. 8.2.5 границы, включенные в прямоугольник, даны жирными линзами.
164 СИСТЕМЫ случайных величин (ГЛ. S имеют системы непрерывных случайных величии. Распределение системы непрерывных 7 %^Дх величин обычно характеризуют ие функцией распределения, а плотностью рас- пределения. Вводя в рассмотрение плотность рас- пределения для одной случайной вели- чины. мы определяли ее как предел от- ношения вероятности попадания на малый участок к длине этого участка при ее неограниченном уменьшении. Аналогично определи.ч плотность распределения си- х стемы двух величин. Пусть имеется система двух непре- рывных случайных величин (X, Y). кото- рая интерпретируется случайной точкой на плоскости хОу. Рассмотрим па этой плоскости малый прямоугольник со сторонами Дх и Ду, примыкающий к точке с координатами (х, у) (рис. 8.3.1). Вероятность попадания в этот прямоугольник по фор- муле (8.2.2) равна РЦХ. Г)с/?л) = Г(х+Дх, y-j-Ду) — — F(x + Ax. у) — Р(х. у + Ду) + Г(х. у). Разделим вероятность попадания в прямоугольник /?д на площадь этого прямоугольника и перейдем к пределу при Дх—>0 и Ду—>0: ^0------------------- Рис. 83.1. _ | П1 Г(х+дх. У +Ду) —(х+Д*. у) —Г(х, у+Ду) + ^(*.У) лу->о (8.3.1) Предположим, что функция F(x, у) не только непрерывна, но и дифференцируема; тогда правая часть формулы (8.3.1) представляет собой вторую смешанную частную производную функции F(x,y) по х и у. Обозначим эту производную /(х. у): ft*. ^=^^r- = F^x- <8-3-2' Функция f (х, у) называется плотностью распределения системы. Таким образом, плотность распределения системы представляет собой предел отношения вероятности попадания в малый прямоуголь- ник к площади этого прямоугольника, когда оба его размера стре> мятся к нулю; оиа может быть выражена как вторая смешанна» частная производная функции распределения системы по обоим аргу- ментам.
e.3J ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВуХ ВЕЛИЧИН 165 Если воспользоваться «механической» интерпретацией распреде- ления системы как распределения единичной массы по плоскости хОу. функцив f(x, у) представляет собой плотность распределения массы в точке (х, у). Геометрически функцию /(х. у) можно изобразить некоторой поверхностью (рис. 8.3.2). Эта поверхность аналогична кривой рас- пределения для одной случайной ве- личины и называется поверхностью распределения. Если пересечь поверхность рас- пределения / (х. у) плоскостью, па- раллельной плоскости хОу, и спроек- тировать полученное сечение на плоскость хОу. получится кривая, в каждой точке которой плотность распределения постоянна. Такие кри- вые называются кривыми равной плотности. Кривые равной плот- Рис. 8.3.2. пости, очевидно, представляют собой горизонтали поверхности распределения. Часто бывает удобно задавать распределение семейством кривых равной плотности. Рассматривая плотность распределения f (х) для одной случайноп величины, мы ввели понятие «элемента вероятности» f(x)dx. Это есть вероятность попадания случайной вели- чины X на элементарный участок dx, приле- жащий к точке х. Аналогичное понятие «элемента вероятности» вводится и для си- стемы двух случайных величин. Элементом вероятности в даииом случае называется выражение /(х. y)dxdy. Очевидно, элемент вероятности есть не что иное, как вероятность попадания в эле- ментарный прямоугольник со сторонами dx, dy> примыкающий к точке (х, у) (рис. 8.3.3). Эта вероятность равна объему элементарного параллелепипеда, ограниченного сверху поверхностью f (х. у) и опи- рающегося на элементарный прямоугольник dxdy (рис. 8.3.4). Пользуясь понятием элемента вероятности, выведем выражение для вероятности попадания случайной точки в произвольную область D. Эта вероятность, очевидно, может быть получена суммированием (интегрированием) элементов вероятности по всей области D: РЦХ. Y)cD) = J J/(*. y)dx dy. (О) (8.3.3)
166 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН (гл. в Геометрически вероятность попадания в область D изображается объемом цилиндрического тела С, ограниченного сверху поверхностью распределения и опирающегося на область D (рис. 8.3.5). Из общей формулы (8.3.3) вытекает формула для вероятности попадания в прямоугольник R. ограниченный абсциссами а и fl и ординатами f и В (рис. 8.2.5): Р((Х. Г) <=/?) = J J f(x. y)dxdy. (8.3-4) • т Воспользуемся формулой (8.3.4) для того, чтобы выразить функ- цию распределения системы F(x. у) через плотность распределения f(x. у). Функция распределения F (х, у) есть вероятность попадания в бесконечный квадрант; последний можно рассматривать как прямо- угольник. ограниченный абсциссами—со и х и ординатами—со и у. По формуле (8.3.4) имеем: х у Г(.х.У)= / f/(x.y)dxdy (8.3.5) —со —со Легко убедиться в следующих свойствах плотности распределения системы: 1. Плотность распределения системы есть функция неотрица- тельная: /(х. У)>0. Это ясно из того, что плотность распределения есть предел отно- шения двух неотрицательных величин: вероятности попадания в пря- моугольник и площади прямоугольника — и, следовательно, отрица- тельной быть не может.
8.3J ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ ВЕЛИЧИН 167 2. Двойной интеграл в бесконечных пределах пределеиия системы равен единице: J“f f(x. y)dxdy = l. Это видно из того, что интеграл (8.3.6) есть ие роятность попадания во всю плоскость хОу, т. е. вероятность достоверного события. Геометрически это свойство означает, что полный объем тела, ограниченного поверхностью распределения и плоскостью хОу, равен единице. Пример 1. Система двух случайных величин (X У) подчинена закону распределения с плотностью 7 (*'у) - »2(1+Д(1+/> • от плотности рас- (8.3.6) что иное, как ве- Найти функцию распределения Г(х, у). Определить р вероятность попадания случайной точки (X У) в квад- нис' 0 рат R (рис. 8.3.6). Решение. Функцию распределения F(x. у) находим по формуле (8.3.5) / J (I - (I arc<g <+')(?. arc'g > +1)- Вероятность попадания в прямоугольник R находим по формуле (8.3.4): Р((Х. ))сЛ) = ^-УУ (1+^(1У+л 0 0 0 0 Пример 2. Поверхность распределения системы (X У) представляет собой промой круговой конус, основанием которого служит круг радиуса R с центром в начале координат. Написать выражение плотности распределе- ния. Определить вероятность того, что случайная точка (л, у) попадет в круг К радиуса а (рис. 8.3.7), причем и < R.
168 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ Решение. Выражение плотности распределения внутри круга К и ходим из рис. 8.3.8: /и, у) = А (я - Тх*+у’;. где Л —высота конуса. Величину h определяем так, чтобы объем конус? был равен единице: к/?2Л = 1, откуда А__3 h~ • /(х. У)= J^fR-Vx’+y'). Вероятность попадания в круг К определяем по формуле (8.3.4): Р((Х,У)сК) = f f f(x. y)dxdy. <*l Для вычисления инк града (8.3.7) удобно перейти к полярной системе дннат г, Р((Х, Г)сК) = о 2п а (Я- г) г dr d4 = А /’ (Я — г) г dr = 3 8.4. Законы распределения отдельных величин, входящих в систему. Условные законы распределения Зная закон распределения системы двух случайных величи! можно всегда определить законы распределения отдельных величш входящих в систему. В п° 8.2 мы уже вывели выражения для фущ ций распределения отдельных величин, входящих в систему, через функцию распределения системы, а именно, мы показали, что Л’1(х) = Л’(х, оо); F2(y) = F(oo, у). (8.4.1 Выразим теперь плотность распределения каждой из величин входящих в систему, через плотность распределения системы. Пол1 зуясь формулой (8.3.5), выражающей функцию распределения чере плотность распределения, напишем: X со А'1(х) = /’(х. оо) = J J f(x. y'fdxdy. откуда, дифференцируя по х, получим выражение для распределения величины X: со /1(x) = f'1(x) = f/(x.y)dy. —СО плотности (8.4.2)
в.4| ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ОТДЕЛЬНЫХ ВЕЛИЧИН 169 Аналогично /!(У) = ^(У)= f/(*• У)^х. (8.4.3) Таким образом, для того чтобы получить плотность распределе- нии одно!! из величин, входящих в систему, нужно плотность рас- пределения системы проинтегрировать в бесконечных пределах по аргументу. соответствующему другой случайной величине. Формулы (8.4.1), (8.4.2) и (8.4.3) дают возможность, зная закон распределения системы (заданный в виде функции распределения или плотности распределения), найти законы распределения отдельных величин, входящих в систему. Естественно, возникает вопрос об об- ратной задаче: нельзя ли по законам распределения отдельных вели- чин. входящих в систему, восстановить закон распределения системы? Оказывается, что в общем случае этого сделать нельзя: зная только законы распределения отдельных величии, входящих в систему, не всегда можно наиги закон распределения системы. Для того чтобы исчерпывающим образом охарактеризовать систему, недостаточно чать распределение каждой из величин, входящих в систему; нужно еще знать зависимость между величинами, входящими в систему. Эта зависимость может быть охарактеризована с помощью так на- зываемых условных законов распределения. Условным законом распределения величины X, входящей в си- стему (X, У), называется ее закон распределения, вычисленный при условии, что другая случайная величина Y приняла определенное значение у. Условный закон распределения можно задавать как функцией распределения, так и плотностью. Условная функция распределения обозначается F(jc|y), условная плотность распределения /(л'|у). Так как системы непрерывных величии имеют основное практическое зна- чение, мы в данном курсе ограничимся рассмотрением условных за- конов, заданных плотностью распределения. Чтобы нагляднее пояснить понятие условного закона распреде- ления. рассмотрим пример. Система случайных величин L и Q пред- ставляет собой длину и вес осколка снаряда. Пусть нас интересует длина осколка L безотносительно к его весу; это есть случайная величина, подчиненная закону распределения с плотностью Д(Z). Этот закон распределения мы можем исследовать, рассматривая все без исключения осколки и оценивая их только по длине; fr (/) есть безусловный закон распределения длины осколка. Однако нас может интересовать и закон распределения длины осколка вполне опреде- ленного веса, например 10 г. Для того чтобы его определить, мы будем исследовать не все осколки, а только определенную весовую группу, в которой вес приблизительно равен 10 г. и получим условный закон распределения длины осколка при весе 10 г
170 СИСТЕМЫ СЛУЧАЙНЫХ величин 1ГЛ. 8 с плотностью при д=10. Этот условный закон распределе- ния вообще отличается от безусловного /ДО; очевидно, более тя- желые осколки должны в среднем обладать и большей длиной; сле- довательно, условный закон распре- деления длины осколка существенно зависит от веса q. Зная закон распределения одной из величин, входящих в систему, и условный закон распределения вто- рой. можно составить закон распре- деления системы. Выведем формулу, выражающую это соотношение, для непрерывных случайных величин. Для этого воспользуемся понятием об элементе вероятности. Рассмотрим прилежащий к точке (х, у) элемен- тарный прямоугольник со сто- ронами dx. dy (рис. 8.4.1). Вероят- Рис. 8.4.1. ность попадания в этот прямоуголь- ник — элемент вероятности / (х, у) dx dy — равна вероятности одно- временного попадания случайной точки (X. К) в элементарную полосу /. опирающуюся на отрезок dx. и в полосу II. опирающуюся на от- резок dy; /IX. y)dxdy = p((X. ¥)<=Rd)^ = P((x < X <x-f-dx)(y < Y < y + dy)). Вероятность произведения этих даух событий, по теореме умно- жения вероятностей, равна вероятности попадания в элементарную полосу I. умноженной на условную вероятность попадания в эле- ментарную полосу II. вычисленную при условии, что первое событие имело место. Это условие в пределе равносильно условию Х=х', следовательно, / (х. у) dx dy = /, (х) dx f (у IX) dy. откуда /(*. У) = /1(*)/(у|*)- (8-4 4) т. e. плотность распределения системы двух величин равна плот- ности распределения одной из величин, входящих в систему, умно- женной на условную плотность распределения другой величины, вы- численную при условии, что первая величина приняла заданное зна- чение. Формулу (8.4.4) часто называют теоремой умножения законов распределения. Эта теорема в схеме случайных величин аналогична теореме умножения вероятностей в схеме событий.
ЗАВИСИМЫЕ И НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 171 Очевидно, формуле (8.4.4) можно придать другой вид, если за- дать значение не величины X, а величины Y: f (Л-. У) == /2 (у) / (JC [ у). (8.4.5) Разрешая формулы (8.4.4) и (8.4.5) относительно /<у[х) и f (х[у), получим выражения условных законов распределения через без- условные: (8.4.6) или, применяя формулы (8.4.2) и (8.4.3). /01*)=——- / /(X.y)dy <8.4.7) 8.5. Зависимые и независимые случайные величины При изучении систем случайных величин всегда следует обращать внимание на степень и характер их зависимости. Эта зависимость может быть более или менее ярко выраженной, более или менее тесной. В некоторых случаях зависимость между случайными вели- чинами может быть настолько тесной, что. зная значение одной случайной величины, можно в точности указать значение другой. В другом крайнем случае зависимость между случайными величинами является настолько слабой и отдаленной, что их можно практически считать независимыми. Понятие о независимых случайных величинах — одно из важных понятий теории вероятностей. Случайная величина Y называется независимой от случайной ве- личины X, если закон распределения величины V не зависит от того, какое значение приняла величина X. Для непрерывных случайных величин условие независимости Y от X может быть записано в виде: /(уГм=/2(у) при любом у. Напротив, в случае, если Y зависит от X. то /(У|*)¥=/2(у).
172 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН 1ГЛ- 8 Докажем, что зависимость или независимость случайных ве- личин всегда взаимны', если величина У ие зависит от Д', то и ве- личина X не зависит от У. Действительно, пусть У ие зависит от X; /(У|*) = А(У)- (8.5.1) Из формул (8.4.4) и (8.4.5) имеем: откуда, принимая во внимание (8.5.1), получим; /(*|У) = Л(*). что и требовалось доказать. Так как зависимость и независимость случайных величин всегда взаимны, можно дать новое определение независимых случайных величин. Случайные величины X и У называются независимыми, если занон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины X и У называются зависимыми. Для независимых непрерывных случайных величин теорема умно- жения законов распределения принимает вид: /(*. У) = /1(х)/2(у). (8.5.2) т. е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения от- дельных величин, входящих в систему. Условие (8.5.2) может рассматриваться каи необходимое и до- статочное условие независимости случайных величин. Часто по самому виду функции / (х. у) можно заключить, что случайные величины X, У являются независимыми, а именно, если плотность распределения /(х, у) распадается на произведение двух функций, из которых одна зависит только от х, другая — только от у. то случайные величины независимы. Пример. Плотность распределения системы (Д', У) имеет вид; '~ «’U’+y’+^+D ’ Определить, зависимы или независимы случайные величины X и У,- Решеиие- Разлагая знаменатель на множители, имеем: ' lX' W“ п(1+х!) п(1+у=) - Из того, что функция /(х, у) распалась на произведение двух функций из которых одна зависит только от х, а другая — только от у, заключаем’
8J5] ЗАВИСИМЫЕ И НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 173 чю величины А* и У должны быть независимы. Действительно, применял формулы (8.4.2) и (8.4.3), имеем: f'(л) = к(1+^) / Тцг+¥Т” "(i+^l —со аналогично <>') = «(| + у>) • откуда убеждаемся, что /(х.у)»/|(л)/,(У) и. следовательно, величины А н У независимы. Вышеизложенный критерий суждения о зависимости или незави- симости случайных величин исходит из предположении, что закон распределения системы нам известен. На практике чаще бывает на- оборот: закон распределения системы (X, У) не известен; известны только законы распределения отдельных величин, входящих в систему, и имеются основания считать, что величины X и Y независимы. Тогда можно написать плотность распределения системы как произведение плогиостей распределения отдельных величин, входящих в систему. Остановимся несколько подробнее на важных понятиях о «зави- симости» и «независимости» случайных величин. Понятие «зависимости» случайных величин, которым мы пользу- емся в теории вероятностей, несколько отличается от обычного по- пятя «зависимости» величин, которым мы оперируем в математике. Действительно, обычно под «зависимостью» величин подразумевают только один тнп зависимости — полную, жесткую, так называемую функциональную зависимость. Две величины X и У называются функционально зависимыми, если, зная значение одной из них, можно точно указать значение другой. В теории вероятностей мы встречаемся с другим, более общим, типом зависимости — с вероятностной или «стохастической» зави- симостью. Если величина У связана с величиной X вероятностной зависимостью, то, зная значение X. нельзя указать точно значение У, а можно указать только ее закон распределения, зависящий от того, какое значение приняла величина X. Вероятностная зависимость может быть более или менее тесной; по мере увеличения тесноты вероятностной зависимости она все более приближается к функциональной. Таким образом, функциональную зависимость можно рассматривать как крайний, предельный случай наиболее тесной вероятностной зависимости. Другой крайний случай — полная независимость случайных величин. Между этими двумя край- ними случаями лежат все градации вероятностной зависимости — от самой сильной до самой слабой. Те физические величины, которые на практике мы считаем функционально зависимыми, в действитель- ности связаны весьма тесной вероягностной зависимостью: при
174 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН 1ГЛ- 8 заданном значении одной из этих величин другая колеблется в с гель узких пределах, что ее практически можно считать вполне опреде- ленной. С другой стороны, те величины, которые мы на практике считаем независимыми, в действительности часто находятся в некоторой взаимной зависимости. Но эта зависимость настолько слаба, что сю для практических целей можно пренебречь. Вероятностная зависимость между случайными величинами очень часто встречается на практике. Если случайные величины X и Y находятся в вероятностной зависимости, это ие означает, что с из- менением величины X величина ¥ изменяется вполне определенным образом; это лишь означает, что с изменением величины X величина Y имеет тенденцию также изменяться (например, возрастать или убывать при возрастании X). Эта тенденция соблюдается лишь «в среднем», в об- щих чертах, и в каждом отдельном случае от нее возможны отступления. Рассмотрим, например, две такие случайные величины: АГ—рост наугад взятого человека, Y — его вес. Очевидно, величины X и Y находятся в определенной вероятностной зависимости; оиа выражается в том, что в общем люди с большим ростом имеют ббльший вес. Можно лаже составить эмпирическую формулу, приближенно заменяю- щую эту вероятностную зависимость функциональной. Такова, наприм- р, общеизвестная формула, приближенно выражающая зависимость между ростом и весом: ¥(кг) = Х(см) — 100. Формулы подобного типа, очевидно, не являются точными и вы- ражают лишь некоторую среднюю, массовую закономерность, тенден- цию, от которой в .каждом отдельном случае возможны отступления. В вышеприведенном примере мы имели дело со случаем явно выраженной зависимости. Рассмотрим теперь такие две случайные величины: X — рост наугад взятого человека; Z — его возраст. Очевидно, для взрослого человека величины X и Z можно считать практически независимыми; напротив, для ребенка величины X н Z являются зависимыми. Приведем еше несколько примеров случайных величин, находя- щихся в различных степенях зависимости. 1. Из камней, составляющих кучу щебня» выбирается наугад один камень. Случайная величина Q — вес камня; случайная величина L — наибольшая длина камня. Величины Q и L находятся в явно выраженной вероятностной зависимости. 2. Производится стрельба ракетой в заданный район океана. Величина ДА' — продольная ошибка точки попадания (недолет, пере- лет); случайная величина ДУ— ошибка в скорости ракеты в конце активного участка движения. Величины ДАТ и ДУ явно зависимы, так как ошибка ДУ является одной нз главных причин, порождаю- щих продольную ошибку ДА’.
eej ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН 175 3. Летательный аппарат,, находясь в полете, измеряет высоту над поверхностью Земли с помощью барометрического прибора. Рас- сматриваются две случайные величины: А//— ошибка измерения вы- соты и G— вес топлива, сохранившегося в топливных баках к мо- менту измерения. Величины Д// и G практически можно считать независимыми. В следующем п° мы познакомимся с некоторыми числовыми харак- теристиками системы случайных величин, которые дадут нам возмож- ность оценивать степень зависимости этих величин. 8,6. Числовые характеристики системы двух случайных величии. Корреляционный момент» Коэффициент корреляции В главе 5 мы ввели в рассмотрение числовые характеристики одной случайной величины X— начальные и центральные моменты различных порядков. Из этих характеристик важнейшими являются две: математическое ожидание тх н дисперсия DK. Аналогичные числовые характеристики — начальные и центральные моменты различных порядков — можно ввести и для системы двух случайных величин. Накальным моментом порядка k, s системы (X, У) называется математическое ожидание произведения Хк на Y5: «л„ = Л4[Х‘Г]. (8.6.1) Центральным моментом порядка k, s системы (X, У) назы- вается математическое ожидание произведения й-й и s-й степени соответствующих центрированных величин: = (8.6.2) где X = X — тх, Y = Y — ту. Выпишем формулы, служащие для непосредственного подсчета моментов. Для прерывных случайных величин = (8.6.3) = 2 ^(х,- тх)‘(У,— mJ Рц. (8.6 4) где PlJ — Р ( (X = х,) (Y = yj)) — вероятность того, что система (X. У) примет значения (хр уД а суммирование распространяется по всем возможным значениям случайных величин X. Y.
176 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН 1ГЛ в Для непрерывных случайных величин: — Иx‘y’f (х- У)dxdy. (8.6.5) Р,., = J f (X — mx)t (У — mjf (X. у) dx dy. (8.6.6) -со где f (х, у) — плотность распределения системы. Помимо чисел k и s. характеризующих порядок момента по от- ношению к отдельным величинам, рассматривается еще суммарный порядок момента /г-f- s, равный сумме показателей степеней при X и Y. Соответственно суммарному порядку моменты классифицируются на первые, вторые и т. д. На практике обычно применяются только первые и вторые моменты. Первые начальные моменты представляют собой уже известные нам математические ожидания величии X и К, входящих в систему: Е0] = ЛЦХ]. wly^a0<I = Al(Xor4 = 7W(H. Совокупность математических ожиданий тх. ту представляет собой характеристику положения системы. Геометрически это коор- динаты средней точки на плоскости, вокруг которой происходит рас- сеивание точки (X. К). Кроме первых начальных моментов, на практике широко при- меняются еще вторые центральные моменты системы. Два из них представляют собой уже известные нам дисперсии величин X и К: Dx =о = М |Х2 Г| = Л1 [Л2] = D (ЛЬ Ру = рла=/И1Х0Г21===Л1 (к21=/>[К1. характеризующие рассеивание случайной точки в направлении осей Ох и Оу. Особую роль как характеристика системы играет второй сме- шанный центральный момент". т. е. математическое ожидание произведения центрированных величии. Ввиду того, что этот момент играет важную роль в теории систем случайных величин, введем для него особое обозначение: Кху=М\Х И = ЛЦ(Х— тх)(Г — ту)Ь (8.6.7) Характеристика называется корреляционным моментом (иначе — «моментом связи») случайных величин X, Y.
86] ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН 177 Для прерывных случайных величин корреляционный момент вы- ражается формулой = 2 2 (*г — т,)(у, — ту)ptJ. (8.6.8) • J а для непрерывных — формулой / J (х — тМу — ту)/(х, y)dxdy. (8.6.9) — 00 « Выясним смысл и назначение этой характеристики. Корреляционный момент есть характеристика системы случайных величин, описывающая, помимо рассеивания величин X н Y, еще и связь между ними. Для того чтобы убедиться в этом, докажем, что для независимых случайных величин кор реляционный момент равен нулю. Доказательство проведем для непрерывных случайных величин ’). Пусть X, Y — независимые непрерывные величины с плотностью распределения /(-«, у). В п’ 8.5 мы доказали, что для независимых величин /С*. У)=Л(*)/2(У). (8.6.10) где /2(у)— плотности распределения соответственно величин X и Y. Подставляя выражение (8.6.10) в формулу (8.6.9), видим, что интеграл (8.6.9) превращается в произведение двух интегралов: Kyll = f.ix — mJftCxjdx J (У —m,)/2(y)rfy. — СО — со Интеграл со ( {x — mt)H(x)dx -СО представляет собой не что иное, как первый центральный момент величины X, и. следовательно, равен нулю; по той же причине равен нулю и второй сомножитель; следовательно, для независимых слу- чайных величии /Cvy = 0. Таким образом, если корреляционный момент двух случайных величин отличен от пуля, это есть признак наличия записи- мости между ними. Из формулы (8.6.7) видно, что корреляционный момент характе- ризует не только зависимость величии, но и их рассеивание. Дей- ствительно, если, например, одна из величин (X, Y) весьма мало отклоняется от своего математического ожидания (почти не случайна). ') Для прерывных оно может быть выполнено аналогичным способом.
178 СИСТЕМЫ СЛУЧАЙНЫХ величин ГГЛ. в У. Эта величин в нудь то корреляционный момент будет мал, какой бы тесной зависимостью ни были связаны величины (X, Y). Поэтому для характеристики связи между величинами (X, У) в чистом виде переходят от момента ЛГху к безразмерной характеристике __^гу где ах, оу — средние квадратические отклонения величин X, характеристика называется коэффициентом корреляции X н Y. Очевидно, коэффициент корреляции обращается одновременно с корреляционным моментом; следовательно, для не- зависимых случайных величин коэффициент корреляции равен нулю. Случайные величины, для которых корреляционный момент (а зна- чит, и коэффициент корреляции) равен нулю, называются некорре- лированными (иногда — «несвязанными»). Выясним, эквивалентно ли понятие некоррелированности случайных величин понятию независимости. Выше мы доказали, что две независимые случайные величины всегда являются некоррелированными. Остается выяснить: справедливо ли обрат- ное положение, вытекает ли из некоррели- рованности величин их независимость? Оказывается — нет. Можно построить при- меры таких случайных величин, которые являются некоррелированными, ио зави- симыми. Равенство нулю коэффициента корреляции—необходимое, но не доста- точное условие независимости случайных величии. Из независимости случайных Рис. 8.8.1* величии вытекает их некоррелирован- ность; напротив, из некоррелирован- ности величин еще ие следует их независимость. Условие неза- висимости случайных величин—более жесткое, чем условие некор- релированности. Убедимся в этом на примере. Рассмотрим систему случайных величин (X. К), распределенную с равномерной плотностью внутри круга С радиуса г с центром в начале координат (рис. 8.6.1). Плотность распределения величии (X, У) выражается формулой при х2+у2<г2. /(*. У) I о при x2_j_yi r2e Из условия У* У f (х, y)dxdy=: I j* с dxdy = l находим с '(С)
6.61 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН 179 Нетрудно убедиться, что в данном примере величины являются аависимыми. Действительно, непосредственно ясно, что если ве- личина X приняла, например, значение 0, то величина Y может с равной вероятностью принимать все значения от —-г до -|>- г; если же величина X приняла значение г, то величина Y может при- нять только одно-едииствениое значение, в точности равное нулю; вообще, диапазон возможных значений Y зависит от того, какое значение приняла X. Посмотрим, являются ли эти величины коррелированными. Вычис- лим корреляционный момент. Имея в виду, что по соображениям сим- метрии тл = ту — 0, получим: Хху = f f xyf (х. у) dxdy = ~-^ f f xy dx dy. (8.6.12) (C) (Q Для вычисления интеграла разобьем область интегрирования (круг С) на четыре сектора С,, С2, С3, С4, соответствующие четырем коор- динатным углам. В секторах С, и С3 подынтегральная функция положительна, в секторах С2 и — отрицательна; по абсолютной же величине интегралы по этим секторам равны; следовательно, инте- грал (8.6.12) равен нулю, и величины (X, К) не коррелированы. Таким образом, мы видим, что из некоррелированности случай- ных величин не всегда следует их независимость. Коэффициент корреляции характеризует не всякую зависимость, а только так называемую линейную зависимость. Линейная вероятност- ная зависимость случайных величин заключается в том. что при возрастании одной случайной величины другая имеет тенденцию возрастать (нли же убывать) по линейному закону. Эта тенденции к линейной зависимости может быть более илн менее ярко выражен- ной. более или менее приближаться к функциональной, т. е. самой тесной линейной зависимости. Коэффициент корреляции характе- ризует степень тесноты линейной зависимости между случайными величинами. Если случайные величины X и Y связаны точной линейной функциональной зависимостью: Y = aX-Y&, то гху = ± 1. причем знак «плюс» или «минус» берется в зависимости от того, положителен или отрицателен коэффициент а. В общем случае, когда величины X и Y связаны произвольной вероятностной зависимостью, коэффициент корреляции может иметь значение в пре- делах: - 1 < < 1 ') ') Доказательство этих положений будет дано ниже, в п” 10.3, после того как мы познакомимся с некоторыми теоремами теории вероятностей, кото- рые позволят провести его очень просто.
180 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ- 8 В случае гху > 0 говорят о положительной корреляции вели- чин X и Y, в случае гху < 0 — об отрицательной корреляции. Положительная корреляция между случайными величинами озна- чает, что при возрастании одной из них другая имеет тенденцию г среднем возрастать; отрицательная корреляция означает, что при возрастании Одной из случайных величин другая имеет тенденцию в среднем убывать. В рассмотренном примере двух случайных величии (Л. F). рас- пределенных внутри круга с равномерной плотностью, несмотря на наличие зависимости между X и Y, линейная зависимость отсут- ствует; при возрастании X меняется только диапазон изменения К, Рис 8.6.2. Рис. 8.6.3. в его среднее значение ие меняется; естественно, вели- чины (X, Y) оказываются некоррелированными. Приведем несколько примеров случайных величин с положитель- ной и отрицательной корреляцией. 1. Вес и рост человека связаны положительной корреляцией. 2. Время, потраченное на регулировку прибора при подготовке его к работе, и время его безотказной работы связаны положитель- ной корреляцией (если, разумеется, время потрачено разумно). Наоборот, время, потраченное на подготовку, н количество неисправ- ностей. Обнаруженное при работе прибора, связаны отрицательной корреляцией. 3. При стрельбе залпом координаты точек попадания отдельных снарядов связаны положительной корреляцией (так как имеются общие для всех выстрелов ошибки прицеливания, одинаково откло- няющие от цели каждый нз них). 4. Производится два выстрела по цели; точка попадания первого выстрела регистрируется, и в прицел вводится поправка, пропорцио- нальная ошибке первого выстрела с обратным знаком. Координаты
В6] ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН 18! точек попадания первого и второго выстрелов будут связвны отри- цательной корреляцией. Если в нашем распоряжении имеются результаты ряда опытов над системой двух случайных величии (X, F), то о наличии или отсутствии существенной корреляции между ними легко сулить в первом при- ближении по графику, на котором изображены в виде точек все полученные из опыта пары значений слу- чайных величин. Например, если наблюденные пары зна- чений величин расположи- лись так. как показано на рас. 8.6.2, то это указывает на -наличие явно выражен- ной положительной корреля- ции между величинами. Еще более ярко выраженную положительную корреляцию, близкую к ли- нейной функциональной зависимости, наблюдаем на рис. 8.6.3. На рис. 8.6.4 показан случай сравнительно слабой отрицательной корре- ляции. Наконец, иа рис. 8.6.5 иллюстрируется случай практически Рис. 8 65. некоррелированных случайных величин. На практике, веред тем как исследовать корреляцию случайных величин, всегда полезно предвари- тельно построить наблюденные пары значений на графике для первого качественного суждения о типе корреляции. Способы определения характеристик системы случайных величин из опыта будут освещены в гл. 14.
182 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИИ [ГЛ. 8 8.7. Система произвольного числа случайных величин На практике часто приходится рассматривать системы более чем двух случайных величин. Эти системы интерпретируются как слу- чайные точки или случайные векторы в пространстве того или иного числа измерений. Приведем примеры. 1. Точка разрыва дистанционного снаряда в пространстве харак- теризуется тремя декартовыми координатами (X, У, Z) или тремя сферическими координатами (R, Ф, 0). 2. Совокупность п последовательных измерений изменяющейся величины X —система п случайных величии (Xv Х2, .... Хл). 3. Производится стрельба очередью из п снарядов. Совокупность координат п точек попадания на плоскости — система 2п случайных величин (абсцисс и ординат точек попадания): Ир *2........Ь'р У2...........Уп)- 4. Начальная скорость осколка — случайный вектор, характери- зуемый тремя случайными величинами: величиной скорости Уо и двумя углами Ф и 0. определяющими направление полета осколка в сфе- рической системе координат. Полной характеристикой системы произвольного числа случайных величии служит закон распределения системы, который может быть задай функцией распределения или плотностью распределения. Функцией распределения системы п случайных величин (Хр Х2.......Хп) называется вероятность совместного выполнения п неравенств вида Г(х,. х,..... х„) = Р((Х1<х,)(Л-2<х!) ... (Л„<х„)). (8.7.1) Плотностью распределения системы п. непрерывных случайных величин называется п-я смешанная частная производная функции х2...........хп)> взятая один раз по каждому аргументу: ,, . dnF(xt, Х3, ..., хп) у о. /(* х‘.....дх,дх,...дх„ • (87-2’ Зная закон распределения системы, можно определить законы распределения отдельных величин, входящих в систему. Функция распределения каждой из величин, входящих в систему, получится, если в функции распределения системы положить все остальные аргументы равными оо: F1(x1) = /r(x1, оо....оо). (8.7.3) Если выделить из системы величии (A\, Х2.........Хп) частную систему (Л\, Х2, .... Xk), то функция распределения этой системы определяется по формуле F1.Л.... »(*!. Х2. .... x») = F(*i, х2.Х„. оо......оо). (8.7.4)
В.7] СИСТЕМА ПРОИЗВОЛЬНОГО ЧИСЛА СЛУЧАЙНЫХ ВЕЛИЧИН 183 Плотность распределения каждой нз величин, входящих в систему, получится, если плотность распределения системы проинтегрировать в бесконечных пределах по всем остальным аргументам: fi(xi)= f ••• ff(xvx2...........X„)dx2 ... dx„. (8.7.5) —co —co Плотность распределения частной системы (Хр zY2, .... выделенной из системы (ЛГр Х2, • ••» Хп). равна: Л.2,..., л(хр х2* •••• ха) = оэ со = J ... f /(х,. х2...... x„)dxl+l ... dx„. (8.7.6) Условным законом распределения частной системы (A\, Х2....Х^) называется ее закон распределения, вычисленный при условии, что остальные величины Хк+г.......Хп приняли значения ...........х„. Условная плотность распределения может быть вычислена по формуле Л*......................*») = 7 (8.7.7) •'A+l...л(хЛ+Р •••> хп) Случайные величины (Xv Х2, Хп) называются независимыми, если закон распределения каждой частной системы, выделенной из системы (Лр Х2.......Х„), не зависит от того, какие значения при- няли остальные случайные величины. Плотность распределения системы независимых случайных вели- чин равна произведению плотностей распределения отдельных вели- чин, входящих в систему: / (*!• хг....xn) = fl (*1) /г (*г) • • • /л (*«)• (8.7.8) Вероятность попадания случайной точки (Хр Х2;..., Хп) в пре- делы л-мерной области D выражается п-кратпым интегралом: Р((А. *2.......*.)<=О) = = f • • х2...........x„)dx,dx2 ... dx„. (8.7.9) (О) Формула (8.7.9) по существу является основной формулой для вычисления вероятностей событий» не сводящихся к схеме случаев. Действительно, если интересующее нас событие А не сводится к схеме случаев, то его вероятность ие может быть вычислена непо- средственно. Если прн этом нет возможности поставить достаточное число однородных опытов и приближенно определить вероятность события А по его частоте, то типичная схема вычисления вероятности
184 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИИ [ГЛ 8 события сводится к следующему. Переходят от схемы событий к схеме случайных величин (чаще всего — непрерывных) и сводят событие А к событию, состоящему в том, что система случайных величин (Хг Х2. ...» Лп) окажется в пределах некоторой области D. Тогда вероятность события А может быть вычислена по формуле (8,7.9), Пример 1. Самолет поражается дистанционным снарядом при условии, если разрыв снаряда произошел не далее чем на расстоянии R от самолета (точнее, от условной точки иа оси самолета, принимаемой за его центр). Закон распределения точек разрыва дистанционного снаряда в системе коор- динат, связанной с целью, имеет плотность f(x, у. z). Определить вероят- ность поражения самолета. Решение. Обозначая пораженце самолета буквой А, имеем: 7>(И) = f f f f(x> У> z)dxdydzt IC) где интегрирование распространяется по шару С радиуса R с цептрои в начале координат. Пример 2. Метеорит, встретившийся на пути искусственного спутника Земли, пробивает его оболочку, если: 1) угол 0, под которым метеорит встречается с поверхностью спутника, заключен в определенных преде- лах (Of, 02), 2) метеорит имеет вес не менее qD (г) и 3) относительная ско- рость встречи метеорита со спутником не меньше t'o (м/сек). Скорость встречи V, вес метеорита q и угол встречи fl представляют собой систему случайных величии с плотностью распределения / (v, q, 0). Найти вероят- ность р того, что отдельный метеорит, попавший в спутник, пробьет его оболочку. Решение. Интегрируя плотность распределения f (v, q, 6) по трех- мерной области, соответствующей пробиванию оболочки, получим; l'mnx 9max Вя р =* J* У У / (v, q, fl) dv dq dd, t’o Bi где 9max — максимальный вес метеорита, t'mai — максимальная скорость встречи. 8.8. Числовые характеристики системы нескольких случайных величии Закон распределения системы (заданный функцией распределения или плотностью распределения) является полной, исчерпывающей характеристикой системы нескольких случайных величии. Однако очень часто такая исчерпывающая характеристика ие может быть применена. Иногда ограниченность экспериментального материала не дает возможности построить закон распределения системы. В других случаях исследование вопроса с помощью сравнительно громоздкого аппарата законов распределения не оправдывает себя в связи с не- высокими требованиями к точности результата. Наконец, в ряде
8.8] ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ НЕСКОЛЬКИХ ВЕЛИЧИН 185 задач примерный тип закона распределения (нормальный закон) известен заранее и требуется только найти его характеристики. Во всех таких случаях вместо законов распределения применяют неполное, приближенное описание системы случайных величин с по- мощью минимального количества числовых характеристик. Минимальное число характеристик, с помощью которых может быть охарактеризована система п случайных величин А'р Х2..Хп, сводится к следующему: 1) п математических ожшиигий тР т2, .... т„. характеризующих средние значения величин; 2) п дисперсий О,. D,......D„ характеризующих их рассеивание; 3) я (я—1) корреляционных моментов где Xl = Xi — т$ Xf = Xf— т/г характеризующих попарную корреляцию всех величин, входящих в систему. Заметим, что дисперсия каждой из случайных величии Xt есть, по существу, не что иное, как частный случай корреля- ционного момента, а именно корреляционный момент вели- чины Xt и той же величины Х(: D, = Кп = AI [ А'?] = М[Х,Х,1. Все корреляционные моменты н дисперсии удобно расположить в виде прямоугольной таблицы (так называемой матрицы): | /Сц /Си ... /С>я ^21 ^22------^2п Кл, км...кт Эта таблица называется корреляционной матрицей системы слу- чайных величин (X,. Х2, .... Х„). Очевидно, что не все члены корреляционной матрицы различны. Из определения корреляционного момента ясно, что Xtj = Kp, т. е. элементы корреляционной матрацы, расположенные симме- трично по отношению к главной диагонали, равны. В связи
186 СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИИ 1ГЛ 8 с этим часто заполняется ие вся корреляционная матрица, а лишь ее половина, считая от главной диагонали: ^11 ^12 ••• АГщ ^22 • • • ^2л Корреляционную матрицу, составленную из элементов Кц> часто сокращенно обозначают символом Ц/С//Ц. По главной диагонали корреляционной матрицы стоят дисперсии случайных величин Хг, Х%, —> Хп. В случае, когда Случайные величины Xv Х2, .... Хп не корре- лнрованы, все элементы корреляционной матрицы» кроме диагональ- ных, равны нулю: Ml ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ НЕСКОЛЬКИХ ВЕЛИЧИН 187 Введем понятие о некоррелированных системах случайных величин (иначе о некоррелированных случайных векторах'). Рассмотрим две системы случайных величин: И } “ч-мотрим (Л>’ .....лл): (^- Гг.........У„) или два случайных вектора в^-мерном пространстве: Л с составляю- щими (Д’,, Хг. .... Х^ и Y с составляющими (Рр уг......... у j Случайные векторы X н F называются некоррелированными если каждая из составляющих,вектора X ие коррелировав с каждой из составляющих вектора У: ==Л1[Л,Уу] =о При п- у_ 1.......... 11М = £>! О D2 О ... о ... D.... О о о Оп Такая матрица называется диагональной. В целях наглядности суждения именно о коррелирован- но ст и случайных величин безотносительно к их рассеиванию часто вместо корреляционной матрицы Ц/С^Ц пользуются нормированной кор реляционной матрицей ||г/у||, составленной не из корреляцион- ных момеитоь, а из коэффициентов корреляции: г ojoj * где o1s=j/Dt, aj=y Dj. Все диагональные элементы этой матрицы, естественно, равны еди- нице. Нормированная корреляционная матрица имеет вид: 1
ГЛАВА 9 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН 9.1. Нормальный закон на плоскости Из законов распределения системы двух случайных величин имее? смысл специально рассмотреть нормальный закон, как имеющий наи- большее распространение на практике. Так как система двух слу- чайных величин изображается случайной точкой на плоскости, нор- мальный закон для системы двух величин часто называют «нормальным законом иа плоскости». В общем случае плотность нормального распределения двух слу- чайных величин выражается формулой 1 Г(-'”ж)а (>-”>) (9-1.1) Этот закон зависит от пяти параметров: тх, my. ах, ау и г. Смысл этих параметров нетрудно установить. Докажем, что пара- метры тх, ту представляют собой математические ожидания (центры рассеивания) величин X и К: ах, ау—их средние квадратические отклонения; г—коэффициент корреляции величин X и Y. Для того чтобы убедиться в этом, найдем прежде всего плот- ность распределения для каждой из величин, входящих в систему. Согласно формуле (8.4.2) со /,(-«) = J f(x- = i ге—х)2 ] ? 2(1—Г1) I о2 - .. +—Т =---------‘у== е L х S
911 НОРМАЛЬНЫЙ ЗАКОН НА ПЛОСКОСТИ 189 Вычислим интеграл Положим: тогда (9.1.2) /2 f dv. Из интегрального исчисления известно, что Г Г— ас-в* J e-Ax>±w^c dx _ |/ Л. ~ л 1). (9.1.3) -ОО В нашем случае л=т^= с=-г^г- Подставляя эти значения в формулу (9.1.3), имеем: / = о> /2У«(1 — г«) е~и\ откуда сг У2п пли, учитывая (9.1.2), Л(х)==^Жг 4 <9’О Таким образом, величина X подчинена нормальному закону с Центром рассеивания тЛ и средним квадратическим отклонением ах. Аналогично покажем, что (>-жу)а А(у)=^Йге 4 <9Л5> т. е. величина Y подчинена нормальному закону с центром рассеи- вания ту и средним квадратическим отклонением ау. 1) Для вычисления интеграла (9.1.3) достаточно дополнить показатель степени до полного квадрата и после замены переменной воспользоваться интегралом Эйлера — Пуассона (6.1.3).
190 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИИ (ГЛ I Остается доказать, что параметр г в формуле (9.1.1) предста- вляет собой коэффициент корреляции величин X н К. Для этого вычислим корреляционный момент: Кху= ( f — — y)dxdy. —оо где тх, ту — математические ожидания величин X и Y. Подставляя в эту формулу выражение f(x, у), получим: I I I I I I I I I I I I I I I Кху = --У- - /7*(x—mx)(y-m,)e->^^dxdy. (9.1.6) ' ~а> где 1 Г (ас — тх}2 2г(х — т.)(у — т,) (у— т,)-] А(х- ---------—+Т~Г Произведем в двойном интеграле (9.1.6) замену переменных, положив; =,/2 /2(1—г2) \ Якобиан преобразования равен = w. (9.1.7) следовательно. f(x) = ±ff ("°,V2) “у /2(1 — г’) + (7=5-du d-a>= _____ оо со = ~ -У я----— I* ие~и3 du I* 'we~w' dw + —со —со + fu^’du f^‘d^. —со —со Учитывая, что I* ие~и3 du = I*<we~wi d'W — G-, иЧ~и3 du = ^-\ —co -co -co co J div = V к» —co 1
НОРМАЛЬНЫЙ ЗАКОН НА плоскости 191 имеем! Кху = Гвхау; г /<Ху (9 1.8) Таким образом, Доказано, что параметр г в формуле (9.1.1) пред- ставляет собой коэффициент корреляции величин X и Y. Предположим теперь, что случайные величины X н Y, подчинен- ные нормальному закону на плоскости, не коррелированы; положим в формуле (9.1.1) г = 0. Получим: (х-тх)2 (У-ту)Я /(х. y) = 5J—е 2"i . У 4 •" 2п<зх3у (9.1.9) Легко убедиться, что случайные величины (X, У), подчиненные закону распределения с плотностью (9.1.9), не только не коррели- рованье но и независимы. Действительно, (Х~етл)а (>-СТу)а =ЛМ/,М’ т. е. плотность распределения системы равна произведению плотно- стей распределения отдельных величин, входящих в систему, а это значит, что случайные величины (X, К) независимы. Таким образом, для системы случайных величин, подчиненных нормальному закону, из некоррелированности величии вытекает также их независимость. Термины «некоррелированные» и «независимые» величины для случая нормального распределения эквивалентны. При г^О случайные величины (X, У) зависимы. Нетрудно убе- диться, вычисляя условные законы распределения по формулам (8.4.6), что 5 /У- 'Пу к~тх\* —- - . . Оу р4! — г* У 2ж Проанализируем один из этих условных законог распределениг, например f (у | х). Для этого преобразуем выражение плотности / (у [х) К виду:
192 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ для СИСТЕМЫ ВЕЛИЧИН 1ГЛ. в Очевидно» это есть плотность нормального закона с центром рас- сеивания myj г — ту -|- г ~ (х—тх) (9.1,10) и средним квадратическим отклонением e,lx = o>/E^75. (9.1.11) Формулы (9.1.10) и (9.1.11) показывают, что в условном законе распределения величины Y при фиксированном значении Х~х от этого значения зависит только математическое ожидание, но ие дисперсия. Величина ту\х называется условны« математическим ожи- данием величины У прн данном х. Зависимость (9.1.10) можно изо- бразить на плоскости хОу. откладывая условное математическое ожи- дание ту х по оси ординат. Получится прямая, которая называется линией регрессии У на X. Аналогично прямая * = “Г + ',^£(У —*»») (9.1.12) У есть линия регрессии X на Y. Линии регрессии совпадают только при наличии линейной функ- циональной зависимости Y от X. При независимых X и У линии регрессии параллельны координатным осям. Рассматривая выражение (9.1.1) для плотности нормального рас пределения на плоскости, мы видим, что нормальный закон на плоское*! полностью определяется заданием пяти параметров: двух координат центра рассеивания тх, ту. даух средних квадратических отклоне - ний gx, Gy и одного коэффициента корреляции г. В свою очередь последние три параметра gx, ву и г полностью определяютсв эле- ментами корреляционной матрицы: дисперсиями Dx, Dy и корреля- ционным моментом Кху. Таким образом, минимальное количеств! числовых характеристик системы — математические ожидания, диспеп- сии и корреляционный момент—-в случае, когда система подчинам нормальному закону, определяет собой полностью закон распределен нпя, т. е. образует исчерпывающую систему характеристик. Так как на практике нормальный закон весьма распространен, то очень часто для полной характеристики закона распределении системы оказывается достаточно задать минимальное число — веет пять — числовых характеристик.
62] ЭЛЛИПСЫ РАССЕИВАНИЯ. ПРИВЕДЕНИЕ НОРМАЛЬНОГО ЗАКОНА 193 9,2. Эллипсы рассеивания. Приведение нормального закона к каноническому виду Рассмотрим поверхность распределения, изображающую функцию (9.1.1). Опа имеет внд холма, вершина которого находится над точ- кой (тх. /пу) (рис. 9.2.1). В сечении поверхности распределения плоскостями, параллельными осп /(х, у), получаются кривые, подобные нормальным кривым рас- пределения. В сечении поверхности распределения плоскостями, парал- лельными плоскости хОу, получаются эллипсы. Напишем уравнение проекции такого эллипса на плоскость хОу: (х—тх)я 2г(х — тх)(у — /пу) (у — ту)я ------------------------------- Ч----j----~ consl. или, обозначая константу X2, (х— тху> 1r (X — т,) (у — ту) (у — ту)’ 2 2 — Уравнение эллипса (9.2.Г) можно проанализировать обычными ме- тодами аналитической геометрии. Применяя их, убеждаемся, что центр эллипса (9.2.1) находится в сается направления осей сим- метрии эллипса, то они со- ставляют с осью Ох углы, определяемые уравнением (9.2.2) 1ь — 2 г ax~ay Это уравнение дает два зна- чения углов: а и ар разли- чающиеся на у. Таким образом, ориента- ция эллипса (9.2.1) относи- тельно координатных осей находится в прямой зависи- мости от коэффициента кор- реляции г системы (X, У); в данном случае и независимы), то оси симметрии эллипса парал- лельны координатным осям; в противном случае они составляют с координатными осями некоторый угол. /^7 точке с координатами (тх, ту); что ка- Ряс. 9.2.1. если величины не коррелировали (т. в. ’) Обоснование формулы (9,2.2) другим способом см. в nu 14.7, ' Теория вероятностей
194 нормальный закон распределения для СИСТЕМЫ ВЕЛИЧИН [ГЛ. 0 Пересекая поверхность распределения плоскостями, параллельными плоскости хОу, н проектируя сечения на плоскость хОу, мы полу- чим целое семейство подобных и Одинаково расположенных эллипсов с общим центром (zrtx. my). Во всех точках каждого из таких эллип- сов Плотность распределения f (х, у) постоянна. Поэтому такие эл- липсы называются эллипсами равной плотности или, короче. эллипсами рассеивания. Общие оси всех эллипсов рассеивания называются главными осями рассеивания. Известно, что уравнение эллипса принимает наиболее простой, так называемый «канонический» вид, если координатные осн совпа- дают с осями симметрии эллипса. Для того чтобы привести уравне- ние эллипса рассеивания к каноническому виду, достаточно перенести начало координат в точку (тх, ту) и повернуть координатные оси на угол а, определяемый уравнением (9.2.2). При этом координатные оси совпадут с главными осями рассеивания, и нормальный вакон на плоскости преобразуется к так называемому «каноническому» виду. Каноническая форма нормального закона на плоскости имеет вид; /« (9.2.3) где — так называемые главные средние квадратические от- клонения, т. е. средние квадратические отклонения случайных величин (Е, Н). представляющих собой координаты случайной точки в системе координат, определяемой главными осями рассеивания О\, Оц. Глав- ные средние квадратические Отклонения и выражаются через средние квадратические отклонения в прежней системе координат формулами: о? = a2 cos2а + го a sin 2а + a2 sin2 а, | * У I1) (9 2.41 с2 = а2 slri2а — rCjOy sin 2а-f-a2 cos2а. j Обычно, рассматривая нормальный закон на плоскости, стараются варанее выбрать координатные оси Ох, Оу так, чтобы они совпали с главными осями рассеивания. При этом средние квадратические отклонения по осям ох. ау и будут главными средними квадратиче- скими отклонениями, и нормальный закон будет иметь вид: (9.2.5) В некоторых случаях координатные оси выбирают параллельно главным осям рассеивания, но начало координат с центром рассеива- Вывод втмх формул см. в главе 14, п° 14.7.
«3 ЭЛЛИПСЫ РАССЕИВАНИЯ. ПРИВЕДЕНИЕ НОРМАЛЬНОГО ЗАКОНА 195 иня не совмещают. При этом случайные величины (X. Y) также ока- вываются независимыми, но выражение нормального закона имеет вид: (У->”у)а = г"‘ • <9.2.6) где тх, ту— координаты центра рассеивания. Перейдем в канонической форме нормального закона (9.2.5) от средних квадратических отклонений к вероятным отклонениям: £>x = pV2eJt; Еу = рУ2ау. Величины Ех, Еу называются главными вероятными отклонениями. Подставляя выражения вх, оу через Ех, Еу в уравнение (9.2.5), по- лучим другую каноническую форму нормального закона: f(x. = Ь >/. <9,2.7) В такой форме нормальный закон часто применяется в теории стрельбы. Напишем уравнение эллипса рассеивания в каноническом виде: „2+^2—*2 или + (Д,)2 — Ь (9.2.8) где k — постоянное число. Из уравнения видно, что полуоси эллипса рассеивания пропорцио- нальны главным средним квадратическим отклонениям (а значит, н главным вероятным отклонениям). Назовем «единичным» эллипсом рассеивания тот из эллипсов равной плотности вероятности, полуоси которого равны главным средним квадратическим отклонениям ах, ау. (Если пользоваться в качестве характеристик рассеивания не главными средними квадра- тическими. а главными вероятными отклонениями, то естественно будет назвать «единичным» тот эллипс, полуоси которого равны Ех>Еу.) Кроме единичного эллипса рассеивания иногда рассматривают еше «полный» эллипс рассеивания, под которым понимают тот из эллип- сов равной плотности вероятности, в который с практической досто- верностью укладывается все рассеивание. Размеры этого эллипса, разумеется, зависят от того, что понимать под «практической досто- верностью». В частности, если принять за «практическую достовер- ность» вероятность порядка 0.99, то «полным эллипсом рассеива- ния» можно считать эллипс с полуосями Зол, ЗОу.
196 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИИ [ГЛ. О Рассмотрим специально один частный случай, когда главные средние квадратические отклонения равны друг другу: ал = оу = а. Тогда все эллипсы рассеивания обращаются в круги, и рассеива- ние называется круговым При круговом рассеивании каждая нз осей, проходящих через центр рассеивания, может быть принята ва главную ось рассеивания, или, другими словами, направление главных осей рассеивания неопределенно. При некруговом рассеивании случайные величины X, У, подчиненные нормальному закону на плоскости, не- зависимы тогда и только тогда, когда координатные оси параллельны главным осям рассеивания; при круговом рассеивании случайные ве- личины (Х, У) независимы при любом выборе прямоугольной системы координат. Эта особенность кругового рассеивания приводит к тому, что оперировать с круговым рассеиванием гораздо удобнее, чем с эллиптическим. Поэтому па практике, где только возможно, стре- мятся приближенно заменять некруговое рассеивание круговым. 9.3. Вероятность попадания в прямоугольник со сторонами, параллельными главным осям рассеивания К) на плоскости подчинена нормаль- ному закону Пусть случайная точка (X, S-- Рно. 9.3.1. 1 2о' (9.3.1) При этом главные оси рассеива- ния параллельны координатным осям и величины X и У независимы Требуется вычислить вероятность попадания случайной точки (X. К) в прямоугольник R. стороны кото- рого параллельны координатным осям хОу, а следовательно и глав- ным осям рассеивания (рис. 9.3.1). Согласно общей формуле (8.3.4) имеем: Р((Л. Y)c.R)= [" ffix, y)dxdy = ° т (У-",)" 2"> dy.
8 Л ВЕРОЯТНОСТЬ ПОПАДАНИЯ В ПРЯМОУГОЛЬНИК 197 о [куда, применяя формулу (6.3.3) для вероятности попадания на уча- сток, находим: Р((Х. и <=/?) = где Ф*(х) — нормальная функция распределения. Если нормальный закон на плоскости дан в канонической форме, то mx = my —0, и формула (9.3.2) принимает вид Р((Х. ЮсЛ)=[ф-(±)-Ф‘(А)][ф.(Л)_ф.(Л.)], (9.3.3) Если стороны прямоугольника не параллельны координатным осям, то формулы (9.3.2) п (9.3.3) уже неприменимы. Только при круговом рассеивании вероятность попадания в прямоугольник любой ориентация вычисляется по формулам (9.3.2) или (9.3.3). Формулы (9.3.2) и (9.3.3) широко применяются при вычислении вероят- ностей попадания в цели: прямо- угольные, близкие к прямоуголь- ным, составленные из прямоуголь- ников или приближенно заменяемые таковыми. П р и м е р. Производится стрельба с самолета по прямоугольному щиту размером 9 мХ 12 м. лежащему на мче горизонтально. Главные вероят- нее отклонения: в продольном напра- влении Вд= 10 м, в боковом направле- нии Be = 5 м. Прицеливание — по центру мишени, заход—вдоль мишени. Вслед- ствие несовпадения дальности при- стрелки и дальности фактической стрель- бы средняя точка попадания смещается Рнс. 93.2. в сторону недолета на 4 м. Найти 1 роятпость попадания в мишень при одном выстреле. Решение. На чертеже (рнс. 9.3.2) наносим мишень, точку прицелива- ний (т. п.) и центр рассеивания (ц. р.). Через ц. р. проводим главные осн рассеивания: по направлению полета и перпендикулярно к нему. Перейдем от главных вероятных отклонений Вд н к главным сред- ним квадратическим: ’*= 0Жя7'4-*; “»= адм"s 14,8 По формуле (9.3.3) смеем: Р«л. г><=« =[ф. («)_ф. и 0,133.
198 нормальный закон распределения для СИСТЕМЫ ВЕЛИЧИН [ГЛ. 9 9.4. Вероятность попадания в эллипс рассеивания К числу немногих плоских фигур, вероятность попадания в кото- рые может быть вычислена в конечном виде, принадлежит эллипс рассеивания (эллипс равной плотности). Пусть нормальный закон на плоскости задан в канонической форме: Рассмотрим эллипс рассеивания Вк, уравнение которого где параметр k представляет собой отношение полуосей эллипса рассеивания к главным средним квадратическим отклонениям. По общей формуле (8.3.3) имеем: Р((Л. Г) = В,) = [ f f(x. y)dxdy = lBid i .. y =//г^7в ^dxd>- (94'2) (flft) Сделаем в интеграле (9.4.2) замену переменных Этой подстановкой эллипс Вк преобразуется в круг Ск радиуса k. Следовательно, 1 Г Г Р((Х. Y)cB„) = ~J J е~а 2 du dv. (9.4.3) (С») Перейдем в интеграле (9.4.3) от декартовой системы координат к полярной, положив « = rcos0; © = rsln0. (9.4.4) Якобиан преобразования (9.4.4) равен г. Производя замену перемен- ных, получим: Р ((X, Г) <= Вк) = J* / re 2drdQ = J're 2=1 — е 2 -ж о О
0.4] ВЕРОЯТНОСТЬ ПОПАДАНИЯ в ЭЛЛИПС РАССЕИВАНИЯ 199 Таким образом, вероятность попадания случайной точки в эллипс рассеивания, полуоси которого равны k средним квадратическим отклонениям, равна: fea Р((Л. Пс£,)=1-«'" . (9.4.5) В качестве примера найдем вероятность попадания случайной точки, распределенной по нормальному закону па плоскости хОу. в единичный эллипс рассеивания, полуоси которого равны средним квадратическим отклонениям: с = ох; b = Для такого эллипса k = 1. Имеем: i P((X, F)<=B,) = 1 — е'2. Пользуясь таблицей 2 приложения, находим: Р((Х, Y) с В,) яв 0,393. Формула (9.4.5) чаще всего применяется для вычисления вероят- ности попадания в круг при круговом рассеивании. Пример. На пути быстро движущейся малоразмерной цели площади 1.2 м ставится осколочное ноле в форме плоского диска радиуса /? = 30 и. Внутри лиска плотность осколков постоянна и равна 2 оск./м2. Если цель на- крыта диском, то число осколков, попа та- ющих в нее, можно считать распределен- ным по закону Пуассона. В силу малости цели можно рассматривать ее как точечную и считать, что она или полностью накры- вается осколочным полем (если ее центр попадает в круг), или совсем не накры- вается (если ее центр не попадает в круг). Попадание осколка гарантирует поражение цели. При прицеливании центр круга О, стремятся совместить в плоскости хОу с началом координат О (центром цели), но вследствие ошибок точка Ot рассеи- вается около О (рис. 9.4.1). Закон рассеива- ния нормальный, рассеивание круговое, а = 20 м- Определить вероятность пораже- ния цели Р (Л). Решение. Чтобы цель была пора- жена осколками, необходимо совмещение Рве, 9.4 1. двух событий: 1) попадание цели (точки О) в осколочное поле (круг радиуса R) и 2) поражение цели при условии, что попадание произошло. Вероятность попадания цели в круг, очевидно, равна вероятности тою, что центр круга (случайная точка О,) попадет в круг радиуса R, описанный вокруг начала координат. Применим формулу (9.4.5). Имеем: .30 1« ‘“го -1А
200 ’НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ для СИСТЕМЫ ВЕЛИЧИН [ГЛ. 9 Вероятность попадания цели в осколочное поле равна: 1,5» р=1— е 2 »0.675. Далее найдем вероятность поражения цели /j* прн условии, что она на- крыта осколочным диском. Среднее число осколков а, попадающих в на- крытую полем цель, равно произведению площади цели на плотность поля осколков: 1,2-2 = 2,4. Условная вероятность поражения цели р* есть не что иное, как вероят- ность попадания в нее хотя бы одного осколка. Пользуясь формулой (5.9.5) главы 5, имеем: ^==7?, = а 0,909. Вероятность поражения цели равна: Р{А) = 0,675 - 0,909 « 0.613. Воспользуемся формулой (9.4.5) для вероятности попадания в круг, чтобы вывести одно важное для практики распределение: так называемое распределение Релея. Рассмотрим иа плоскости хОу (рнс- 9.4.2) случайную точку (X. Y), координат О по круговому нормаль- ному закону со средним квадра- тическим отклонением о. Найдем закон распределения случайной ве- личины R—расстояния от точки (АГ, Y) до начала координат, т. е. длины случайного вектора с соста- вляющими АГ, У. Найдем сначала функцию распре- деления Г (г) величины R. По опре- делению f(r) = P(/?<r). Рнс. 9.4.2. Это есть не что иное, как ве- роятность попадания случайной точки (АГ, У) внутрь круга радиуса г (рис. 9.4.2). По формуле (9.4.5) эта вероятность равна: F(r) = l-e'V. где k = — . т. е. F(H = 1 — е~™. (9.4.6) Данное выражение функции распределения имеет смысл только при положительных значениях г; при отрицательных г нужно поло- жить Г (г) — 0.
5 4] ВЕРОЯТНОСТЬ ПОПАДАНИЯ В ЭЛЛИПС РАССЕИВАНИЯ 201 Дифференцируя функцию распределения F (г) по г, найдем плот- ность распределения = "₽« '>°- (9.4.7) I 0 при г < 0. Закон Ре лея (9.4.7) встречается в разных областях практики: в стрельбе, радиотехнике, электротехнике и др. График функции f (г) (плотности закона Релея) приведен на рис. 9.4.3. Найдем числовые характеристики величины R, распределенной пэ закону Релея, а именно: ее моду о# и математическое ожидание тг. Для того чтобы найти моду — абсциссу точки, в которой плот- ность вероятности максимальна, продифференцируем / (г) и приравняем производную нулю: 1—~ = 0; о2 = г2. Корень этого уравнения и есть искомая мода = (9.4.8) Таким образом, наивсроятней- шее значение расстояния R случай- ной точки (АГ, К) от начала коор скому отклонению рассеивания. Математическое ожидание тг Ряс. 9.4.3. равно среднему квадратичс- по формуле mr= f rfir)dr = f 21 dr. 6 6 Производя замену переменной —т=- = ^ </2 получим: ,вг = о/2 J 2fie-pdf=a\'2 f t-2fe~'’dt. « о Интегрируя по частям, найдем математическое ожидание расстоя- ния R'. т, = а У 2 = с |/ “ и I.25». (9.4.9)
202 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИН [ГЛ. 6 9.5. Вероятность попадания в область произвольной формы При стрельбе ударными снарядами вычисление вероятности по- падания в цель сводится к вычислению вероятности попадания слу- чайной точки (X, в некоторую область D. Пусть случайная точка (X. Y) подчинена нормальному закону в каноническом виде. Ве- роятность попадания точки (JV, Y) в область D выражается интегралом у’ 2а2 ” 2я2 - * У dxdy. (9,5.1) (О) В отдельных частных случаях (например, когда область D есть прямоугольник со сторонами, параллельными главным осям рас- сеивания. или эллипс рассеивания, а также в некоторых других, имеющих меньшее практическое зна- чение) интеграл (9.5,1) может быть выражен через известные функции; в общем же случае этот интеграл через известные функции не выра- жается. На практике для вычисления вероятности попадания в область произвольной формы применяются следующие приближенные способы. 1. Область D приближенно за- меняется областью, составленной из х прямоугольников, стороны которых параллельны главным осям рассеива- ния (рнс. 9.5.1). Вероятность по- падания в каждый из таких прямо- угольников вычисляется по формуле (9.3.3). Этот способ можно рекомендовать тогда, когда число прямоугольников, на которые при- ближенно разбивается цель D. не слишком велико. 2. Вся плоскость хОу с помощью некоторой системы линий (прямых или кривых) заранее разбивается на ряд ячеек, вероятности попадания в которые могут быть выражены точно через известные функции, и вычисляется вероятность попадания в каждую ячейку. Такая система линий с соответствующими ей вероятностями попадания в ячейки называется сеткой рассеивания. Работа с сеткой заклю- чается в том. что изображение сетки накладывается на изображение цели, после чего производится суммирование вероятностей попадания в ячейки, накрытые целью; если цель накрывает часть ячейки, то берется часть вероятности попадания в ячейку, пропорциональная накрытой площади. Сетку рассеивания можно применять двояким образом: а) строить цель в масштабе сетки, б) строить сетку в масштабе цели.
В.5] ВЕРОЯТНОСТЬ ПОПАДАНИЯ В ОБЛАСТЬ ПРОИЗВОЛЬНОЙ ФОРМЫ 203 Если цель имеет сложные очертания и, особенно, если она срав- нительно невелика, бывает обычно удобнее построить на изображении цели в том же масштабе ту часть сетки, которая занята целью. Если же цель имеет сравнительно простые очертания й довольно велика (занимает значительную часть полного эллипса рассеивания). (/ ! 0 0 г 0 0 0 0 0 0 0 0 0 0 1 0 1 0 / 0 0 1 0 0 0 0 0 0 i 1 1 0 ! 0 1 0 t 0 0 t 0 0 0 0 г I / t 1 1 0 1 0 1 0 0 1 0 0 г 2 / 1 1 1 1 1 0 1 1 0 0 0 0 г г 2 1 1 i 1 1 1 / 1 1 0 0 i 0 0 0 1 D г г 2 2 г г 2 / 1 1 1 t 1 t 0 0 0 0 0 0 3 3 2 2 2 2 2 2 1 ! / 1 / 1 0 о t D 0 D 3 3 3 3 3 2 2 2 2 1 1 1 t 1 о. 0 0 0 D 3 4 4 4 3 3 3 3 2 2 г г 1 1 1 1 0 1 0 0 3 5 5 5 4 4 ‘i 3 г г 2 2 t f f 1 t 0 0 D 6 6 6 5 5 5 4 4 3 2 2 2 1 1 1 0 0 D 0 1 7 7 6 6 6 5 5 4 4 3 2 2 2 t 1 / 1 1 t 0 8 8 7 7 6 6 6 5 4 4 3 2 г 2 / / 0 0 0 0 9 9 8 8 7 7 6 5 5 4 3 3 2 2 / 1 t I 0 0 Ю 9 9 8 8 7 6 6 5 4 3 3 2 2 1 t 1 0 t D to 10 10 10 8 8 7 5 5 5 4 3 2 2 1 2 1 I 0 t It н 10 Ю 9 8 7 6 6 5 4 3 г 2 г I 1 0 t 0 It II II 10 9 9 8 7 6 5 2> 3 3 2 2 2 1 t 0 0 12 II и to 10 9 8 1 6 5 5 ‘i 3 г 2 2 2 1 t i j: Рис. 9.5.2. обычно удобнее построить цель в масштабе сетки. Так как стан- дартная сетка строится для кругового рассеивания, а на практике рассеивание в общем случае круговым не является, при построении цели в масштабе сетки приходится в общем случае пользоваться двумя разными масштабами по осям Ох и Оу. При этом способе удобно иметь в распоряжении сетку рассеивания, выполненную па прозрачной бумаге, и накладывать ее на перестроенное изображение цели. Прямолинейная сетка рассеивания для одного координатного угла дана на рис. 9.5.2. Сторона ячейки равна 0,2£« 0.133а,
204 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИН [ГЛ. О В ячейках проставлены вероятности попадания в них, выраженные в сороковых долях процента. 3. В случае, когда размеры области D невелики по сравнению со средними квадратическими отклонениями (не превышают 0.5—1 с. к. о. в направлении соответствующих осей), вероятность попадания в эту У область может быть приближенно вычислена по формуле, не содер- Х° D жащей операции интегрирования. Vf* рассмОтрИм на ПЛОСКОСТИ хОу | малую цель D произвольной формы ------------------(рис. 9.5.3). Допустим, что размеры f--------| этой пели невелики по сравнению ( 1______— с вероятными отклонениями Ех, Ег ' у 0~^ } По общей формуле (8.3.3) имеем: P((X,Y)cD)^ Рис. 9.5.3. (9.5.2) (В) где f (х, у) — плотность распределения системы (X, У). Применим к интегралу (9.5.2) теорему о среднем значении: Р((Х. К)сО) = /(х0, у0) f f dxdy = /(xQ, yG)SD. (О) где (х0, у0)—некоторая точка внутри области D; SD — площадь области D. В случае» когда система (X, К) подчинена нормальному закону в каноническом виде, имеем; 2 г _j*o__Уо Р((Х, Y}<=-D) = ^-e 2">. (9.5.3) При сравнительно малых размерах области D плотность распре- деления f (х, у) в пределах этой области изменяется мало и практи- чески может быть принята постоянной. Тогда в качестве точки (х0, Уо) можно выбрать любую точку в пределах области D (например, при- близительный центр цели). Формулы типа (9.5.3) широко применяются на практике. Для областей, наибольшие размеры которых не превышают 0.5 среднего квадратического отклонения в соответствующем направлении, оии дают вполне приемлемые по точности результаты. В отдельных слу- чаях их применяют и для более крупных областей (порядка одного с. к. о.). При условии внесения некоторых поправок (а именно, за- мены величин ах, ау несколько увеличенными значениями) область применимости этой формулы может быть расширена на области раз- мером порядка двух с. к. о.
06) НОРМАЛЬНЫЙ закон в пространстве трех измерении 205 9.6. Нормальный закон в пространстве трех измерений. Общая запись нормального закона для системы произвольного числа случайных величин При исследовании вопросов, связанных со стрельбой дистанцион- ными снарядами, приходится иметь дело с законом распределения точек разрыва дистанционного снаряда в пространстве. При условии применения обычных дистанционных взрывателей этот закон распре- деления может считаться нормальным. В данном п° мы рассмотрим лишь каноническую форму нормаль- ного закона в пространстве: f(x-yz)=w^;' ' • (9-6,) где ах. ау, az — главные средние квадратические отклонения. Переходя от средних квадратических отклонений к вероятным, инеем: /(х, у. *)=n.,1£^ е И 4 *•). (9.6.2) При решении задач, связанных со стрельбой дистанционными снарядами, иногда приходится вычислять вероятность разрыва ди- станционного снаряда в пределах заданной области D. В общем случае эта вероятность выражается тройным интегралом: К. Z)cO)= f f f f(x. у, z)dxdydz. (9.6.3) (D. Интеграл (9.6.3) обычно не выражается через элементарные функции. Однако существует ряд областей, вероятность попадания в которые вычисляется сравнительно просто. 1. Вероятность попадания в прямоугольный параллелепипед со сторонами, параллельными главным осям рассеивания Пусть область R представляет собой прямоугольный параллелепи- пед, ограниченный абсциссами а. р, ординатами 7. о и аппликатами е, tj (рис. 9.6.1). Вероятность попадания в область R, очевидно, равна: Р((Х. У, Z)cft) = (9.6.4)
206 НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ ДЛЯ СИСТЕМЫ ВЕЛИЧИН [ГЛ, 0 2. Вероятность попадания в эллипсоид равной плотности Рассмотрим эллипсоид равной плотности Bk, уравнение которого Полуоси этого эллипсоида пропорциональны главным средним квадратическим отклонениям: b~kay- c~kaz. Пользуясь формулой (9.6.1) для /(х. у. z). выразим вероятность z У Рве. 9.6,1. попадания в эллипсоид Bkx Р((Л. У. Z)<=BJ = .^A— fffe ‘И '> VdxWz. Перейдем от декартовых координат к полярным (сферическим) заменой переменных — — г cos fi COS <₽. с. _^- = rcos 6 sin у» -^- = rsln 6. (9.6.5)
86] нормальный закон в пространстве ТРЕХ ИЗМЕРЕНИИ 207 Якобиан преобразования (9.6.5) равен: / = Г2 Cos baxayax. Переходя к новым переменным, имеем: Р((Л. У. Zy^Bb) = * *2 2; г, — * = —f J г2 cos Qe~ V dr dQd?==]/^ JibTi'dr. (2-)7 0 _i 4 0 Интегрируя по частям, получим: P((X. У. Z)cBt)= ]/1 21 г — ke 2 + J e 2 dr — о Г2 = 2Ф*(А) — 1-у ±ke 2- (9.6.6) 3. Вероятность попадания в цилиндрическую область с образующей, параллельной одной нз главных осей рассеивания Рассмотрим цилиндрическую область С, образующая которой параллельна одной нз главных осей рассеивания (например, оси Oz). а направляющая есть контур произвольной области D на пло- скости хОу (рис. 9.6.2). Пусть область С ограничена двумя плоско- стями г=е и z ==>?. Вычислим вероятность попадания в область С; это есть вероятность произведения двух событий, первое нз которых состоит в попадании точки (X, К) в область D, а второе — в попадании величины Z на участок (г, 7j). Так как величины (ЛГ. К, Z), подчинен- ные нормальному закону в канони- ческой форме, независимы, то неза- висимы и эти два события. Поэтому Р((Л. У, Z)<=C) = = А’((Л'.К)<=О)Р(е < Z < г,) = = Р(«.К)с:О)[ф-(А)_ф.(Л)]. (9.6.7) Рис. 9.6 2. Вероятность Р((%. Y)c.D} в формуле (9.6.7) может быть вы- числена любым из способов вычисления вероятности попадания в плоскую область.
206 нормальный закон распределения для СИСТЕМЫ ВЕЛИЧИН [ГЛ. 9 На формуле (9.6.7) основан следующий способ вычисления ве- роятности попадания в пространственную область О произвольной формы: область G приближенно разбивается на ряд цилиндрических областей G*. О2, ... (рис. 9.6.3). н вероятность попадания в каждую из них вычисляется по формуле (9.6.7). Для применения этого спо- соба достаточно начертить ряд фигур, представляющих собой сечения области G плоскостями, параллельными одной нз координатных плоскостей. Вероятность попадания в каждую нз них вычисляется по сетке рассеивания. В заключение данной главы напишем общее выражение для нор- мального закона в пространстве любого числа измерений п. Плотность распределения такого закона имеет вид: /(л:,, х2. /|С| . , (9.6.8) (2п) где |С| — определитель матрицы С, корреляционной матрице К, т. е. С— — матрица, обратная если корреляционная матрица то к=li-ад. с-/ —( |К|' где |А7|—определитель корреляционной матрицы, a Mif— минор этого определителя, получаемый из него вычеркиванием Z-й строки
66] НОРМАЛЬНЫЙ ЗАКОН В ПРОСТРАНСТВЕ ТРЕХ ИЗМЕРЕНИЙ 209 н /-го столбца. Заметим, что 1с1=4т- Из общего выражения (9.6.8) вытекают все формы нормального закона для любого числа измерений н для любых видов зависимости между случайными величинами. В частности, при 2 (рассеивание на плоскости) корреляционная матрица есть где г — коэффициент корреляции. Отсюда Подставляя определитель матрицы |С| и ее члены в (9.6.8). полу- чим формулу (9.1.1) для нормального закона на плоскости, с которой мы начали п°9.1.
ГЛАВА 10 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН 10.1. Математическое ожидание функции. Дисперсия функции При решении различных задач, связанных со случайными явле- ниями, современная теория вероятностей широко пользуется аппара- том случайных величин. Для того чтобы пользоваться этим аппара- том, необходимо знать законы распределения фигурирующих в задаче случайных величин. Вообще говоря, эти законы могут быть опреде- лены из опыта, но обычно опыт, целью которого является определение закона распределения случайной величины или системы случайных величин (особенно в области военной техники), оказывается и слож- ным и дорогостоящим. Естественно возникает задача—свести объем эксперимента к минимуму и составлять суждение о законах распре- деления случайных величин косвенным образом, на основании уже известных законов распределения других случайных величин. Такие косвенные методы исследования случайных величин играют весь? i большую роль в теории вероятностей. При этом обычно интересую- щая иас случайная величина представляется как функция дру- гих случайных величин; зная законы распределения аргумен- тов, часто удается установить закон распределения функции. С рядом задач такого типа мы встретимся в дальнейшем (см. главу 12). Однако на практике часто встречаются случаи, когда нет особой надобности полностью определять закон распределения функции слу- чайных величин, а достаточно только указать его числовые харак- теристики: математическое ожидание, дисперсию, иногда — некоторые мз высших моментов. К тому же очень часто самые законы распре- деления аргументов бывают известны недостаточно хорошо. В связи с этим часто возникает задача об определении только числовых характеристик функций случайных величин. Рассмотрим такую задачу: случайная величина К есть функция нескольких случайных величин Х1г Х2.Хп: Г = Т(Л„ Х2..... Х„).
10.1J МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ФУНКЦИИ ДИСПЕРСИЯ ФУНКЦИИ 211 Пусть нам известен закон распределения системы аргументов (ЛР Х2......ХпУ, требуется найти числовые характеристики вели- чины Y, в первую очередь — математическое ожидание и дисперсию. Представим себе, что нам удалось тем или иным способом иайти закон распределения g(y) величины К. Тогда задача об определении числовых характеристик становится тривиальной; они находятся по формулам: со «у= f yglyldy, —DO СО Dy— J (y — rnjgfy'fdy II T. Д. Однако самая задача нахождения закона распределения g(y) ве- личины ¥ часто оказывается довольно сложной. К тому же для решения поставленной нами задачи нахождение закона распределения величины Y как такового вовсе и не нужно: чтобы найти только числовые характеристики величины ¥, нет надобности знать ее закон распределения; достаточно знать закон распределения аргументов (Xj. Х2, --» Хп). Более того, в некоторых‘Случаях, для того чтобы найти числовые характеристики функции, не требуется даже зиать закона распределения ее аргументов; достаточно бывает знать лишь некоторые числовые характеристики аргументов. Таким образом, возникает задача определения числовых характе- ристик функций случайных величин помимо законов распре- деления этих функций. Рассмотрим задачу об определении числовых характеристик функ- ции при заданном законе распределения аргументов. Начнем с самого простого случая — функции одного аргумента — и поставим следую- щую задачу. Имеется случайная величина X с заданным законом распределе- ния; другая случайная величина У связана с X функциональной за- висимостью: К г= у (X) Требуется, не находя закона распределения величины ¥, опреде- лить ее математическое ожидание: (10.1.1) Рассмотрим сначала случай, когда X есть прерывная случайная величина с радом распределения:
212 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ величин [ГЛ 10 Выпишем возможные значения величины У и вероятности этих значений: T(*i) ?(»,) ?(*<) Pl 1 Pl Pi Pn (10.1.2) Таблица (10.1.2) не является в строгом смысле слова рядом распре- деления величины У, так как в общем случае некоторые нз значений у(х,), ?(х,).........................<?(*„) (10.1.3) могут совпадать между собой; к тому же эти значения в верхнем столбце таблицы (10.1.2) не обязательно идут в возрастающем порядке. Для того чтобы от таблицы (10.1.2) перейти к подлинному ряду распределения величины У. нужно было бы расположить значения (10.1.3) в порядке возрастания, объединить столбцы, соответствую- щие равным между собой значениям У. н сложить соответствующие вероятности. Но в данном случае нас не интересует закон распре- деления величины У как таковой; для наших целей — определения математического ожидания — достаточно такой «неупорядоченной» формы ряда распределения, как (10.1.2). Математическое ожидание величины У можно определить по формуле ЛЦ¥(АГ)] = 2?(*<)А- (10.1.4) Очевидно, величина ту~ М [<р(А7)1» определяемая по формуле (10.1.4), не может измениться от того, что под знаком суммы некоторые члены будут объединены заранее, а порядок членов изменен. В формуле (10.1.4) для математического ожидания функции не содержится в явном виде закона распределения самой функции, а содержится только закон распределения аргумента. Таким образом, для определения математического ожидания функции вовсе не требуется знать закон распределения этой функции, а доста- точно знать закон распределения аргумента. Заменяя в формуле (10.1.4) сумму интегралом, а вероятность pt— элементом вероятности, получим аналогичную формулу для непрерыв- ной случайной величины: со Af|f(X)]= Jcf(jc)/(x)rfx. (10.1.5) — CO где f(x)— птотность распределения величины X. Аналогично может быть определено математическое ожидание функции срСА'. У) от двух случайных аргументов X и У. Для пре- рывных величин лпнАг. П1=22?(а- yjiPu- (10.1.5
Ю.Ц МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ФУНКЦИИ. ДИСПЕРСИЯ ФУНКЦИИ 213 где ptJ = Р((Х = х;) (У = — вероятность того, что система (X, У) примет значения (xt, yj). Для непрерывных величин Л![9(Х. Y)] = J J(p(x, у)/(х. y)dxdy, (10.1.7) —со где /(х, у)— плотность распределения системы (X. У). Совершенно аналогично определяется математическое ожидание функции от произвольного числа случайных аргументов. Приведем соответствующую формулу только для непрерывных величин: А1 [?(*.. Xt.....Х„)1 = со оо = J ••• JфС*!- хг.......•»»)/(*!. х,.......x„)dx,dx2 ... dx„, (10.1.8) где /(хр х2, .... хп)— плотность распределения системы (Хр Х2.......Х„). Формулы типа (10.1-8) весьма часто встречаются в практическом применении теории вероятностей, когда речь идет об осреднении каких-либо величин, зависящих от ряда случайных аргументов. Таким образом, математическое ожидание функции любого числа случайных аргументов может быть найдено помимо закона распреде- ления функции. Аналогично могут быть найдены и другие числовые характеристики функции — моменты различных порядков. Так как каждый момент представляет собой математическое ожидание неко- торой функции исследуемой случайной величины, то вычисление любого момента может быть осуществлено приемами, совершенно аналогич- ными вышеизложенным. Здесь мы приведем расчетные формулы только для дисперсии, причем лишь для случая непрерывных случайных аргументов. Дисперсия функции одного случайного аргумента выражается формулой D [?(*)) = f|<р(х) — mJ'1 f (х) dx, (10.1.9) где т? = М (х)]— математическое ожидание функции у (Л); /(х) — плотность распределения величины X. Аналогично выражается дисперсия функции двух аргументов: £>[<p(Z. Y)] = J J [<p(x. у) — mjpffx, y)dxdy. (10.1.10)
214 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 10 где т —математическое ожидание функции ср(Л, У); /(х, У) — плотность распределения системы (X. V). Наконец, в случае произвольного числа аргументов, в аналогичных обозначениях: D[?(X,. Х2......= оо оо •= f'" I................х">~•*!................x„)dx2dx2. ,.dx„. -<• (10.1.11) Заметим, что часто при вычислении дисперсии бывает удобно пользоваться соотношением между начальным и центральным момен- тами второго порядка (см. главу 5) и писать: оо D I? (X)] = J If WI2 / (х) dx—nfy (10.1.12) — ОО оо Dl-f(Z, Y)l = f f lf(x. y)P/(x. y)dxdy — m^, (10.1.13) D!?(*,. X,..... X„)) = oo co «= f ••• JI«P(*p *2.....x„)F/(x,, x2,xn)dxxdx2.. ,dxn—nfy -co (10.1.14) Формулы (10.1.12) — (10.1.14) можно рекомендовать тогда, когда 4 оин не приводят к разностям близких чисел, | т. е. когда mv сравнительно невелико. [ Рассмотрим несколько примеров, нллюстри- 1 рующих применение изложенных выше методов ______________J для решения практических задач. F Пример 1 На плоскости задан отрезок дли- ’ । ны Z (рис. 10.1.1), вращающийся случайным образок I так. что все направления его одинаково вероятны. -----' । Отрезок проектируется на неподвижную ось /В. ' Определить среднее значение длины проекции от- 1 резка. Решение. Длина проекции равна: е K=Z|cosa|, Рис. 10.1.1. где угол с— случайная величина, распределенная с равномерной плотностью на участке 0,2л. По формуле (10.1.5) имеем: 2л Т m = Af(/lCosa|]» У* Z[ cosa|-^-«= ~ j' cosarfa = ^- » 0.637Z. о о
10.1] МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ФУНКЦИИ ДИСПЕРСИЯ ФУНКЦИИ 215 в нем прооонну. па пт и математнче- Пример 2. Удлиненный осколок снаряда, который можно схемати- чески изобразить отрезком длины I летит, вращаясь вокруг центра массы таким образом, что все его ориентации в пространстве одинаково вероятны. На своем пути осколок встречает плоский экран, перпендикулярный к напра- влению его движения, н оставляет ' '' ” ское ожидание длины втой пробоины. Решение. Прежде всего дадим математическую формулировку утвер- ждения, заключающегося в том, что «все ориентации осколка в простран- стве одинаково вероятны». Направле- ние отрезка I будем характеризовать единичным вектором г (рис. 10.1.2). Направление вектора г в сферической системе координат, связанной с плос- костью Р. на которую производится проектирование, определяется двумя ] гламя; углом 0, лежащим в плоскости Л и углом tf, лежащим в плоскости, перпендикулярной к Р. Прн равной всрэятности всех направлений вектора г все положения его конца на поверх- ности сф«.ры единичного радиуса С должны обладать одинаковой плотностью вероятности; следовательно, элемент вероятности f (0, у) dO rfy, где / (6, у) — плотность распределения углов 0, у, должен быть пропорциона- лен элементарной площадке ds на сфере С; эта элементарная площадка равна ds = dQ dy cos у, откуда / (®» ?) dfl dy = A cos у dO dy; f (0, y) = A cos y, где A — коэффициент пропорциональности. Значение коэффициента А найдем из соотношения я 2л 2 J* J* / (0, у) d® d<f = l, 0 2 откуда Таким образом, плотность распределения углов В. у выражается формулой j | 0 < В < 2я, /(6» ¥) = cos у при I п к (10.1.15) [ 2 <¥< 2’ Спроектируем отрезок на плоскость Р, длниа проекции равна: Y «= I СОЗ у.
216 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ 10 Рассматривая Y как функцию двух аргументов D н ? и применяя фор- мулу (10.1.7). получим: 2к 2* *2 my = M[t cos yj — f dO I* cos’ у dy = -^ j* cos’у dy = « 0.785/. ° * _L 2 2 Таким образом, средняя длина пробомиы. оставляемой осколком в экране, равна 0,785 длины осколка. Пример 3. Плоская фигура площади 5 беспорядочно вращается в про- странстве так, что все ориентации этой фигуры одинаково вероятны. Найти среднюю площадь проекция фигуры 5’ на неподвижную плоскость Р (рис. 10.1.3). Решение. Направление плоскости фигуры S в пространстве будем характеризовать направлением нормали N к этой плоскости. С плоскостью Р свяжем ту же сферическую систему координат, что в предыдущем примере. Направление нормали N к площадке S характеризуется случайными углами О •t ,Л Г.ч/'лг.та nnuntjllrl п плтклгти*Г» Z11T 1 ЧТ ГТ ПП_ Н и у. распределенными с плотностью (10.1.5). Пло- щадь Z проекции фигуры S на плоскость Р равна Рис. 10.1.3. z = s SI sin y[. а средняя площадь проекции m2 = M [S [ sin у j] = 2ir 2 с cosy Jslny [dy = -J. Таким образом, средняя площадь проекции произвольно ориентированной плоской фигуры на неподвижную плоскость равна половике площади этой фигуры. Пример 4. В процессе слежения радиолокатором за определенным объектом пятно, изображающее объект, все время удерживается в предела экрана. Экран представляет собой круг К радиуса /?- Пятно занимает на экране случайное положение с постоянной плотностью вероятности. Пайи среднее расстояние от пятна до центра экрана. Решение. Обозначая расстояние D. имеем D = V А'2 -|- , и? X, Y— координаты пятна; f (х, у) = в пределах круга К н равна нул»» за его пределами. Применяя формулу (10.1.7) и переходя в интеграле к га лирным координатам, имеем: mD - f f f /<2 аг=4 «• [Aft 0 6 Пример 5. Надежность’(вероятность безотказной работы) техниче- ского устройства есть определенней функция р (X. Y, Z) трех параметров характеризующих работу регулятора. Параметры л. V, Z представляют со(« случайные величины с известной плотностью распределения f (х, у, л
W.II МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ФУНКЦИИ ДИСПЕРСИЯ ФУНКЦИИ 217 Найти среднее значение (математическое ожицаиие) надежности устройства н среднее квадратическое отклонение, характеризующее ее устойчивость. Решение. Надежность устройства р {X, Y, Z) есть функция трех слу- чайных величин (параметров) X. Y, Z. Ее среднее значение (математическое ожидание) найдется но формуле (10.1.8): И,. = М [р (Л'. У, Z)] = f I" J р(х, у, г) fix, у, Zfdxdydx. (10.1.16) —се По формуле (10.1.14) имеем: JO D„-=D[p(X. >. Z)] = J [ [р(х, у. z)ff(x. у, z)dxdy dz-m*?, Формула (10.1.16), выражающая среднюю (полную) вероятность безотказной работы устройства с учетом случайных величин, от ко- торых зависит эта вероятность в каждом конкретном случае, пред- ставляет собой частный случай так называемой интегральной фор- мулы полной вероятности, обобщающей обычную формулу полной Вероятности па случай бесконечного (несчетного) числа гипотез. Выведем здесь эту формулу в общем виде. Предположим, что опыт, в котором может появиться или не по- явиться интересующее нас событие А. протекает в случайных, за- ранее неизвестных условиях. Пусть эти условия характеризуются непрерывными случайными величинами X,. X,, Х„, (10.1.17) плотность распределения которых /(*!• *2.....XnY Вероятность РА появления события А есть некоторая функция случайных величин (10.1.17): ^(Х,. Х2........Х„). (10.1.18) Нам нужно найти среднее значение этой вероятности или, другими словами, полную вероятность события А: PA^M[PA(Xlt А'2.........Хя)[. Применяя формулу (10.1.8) для математического ожидания функ- ции, найдем: Рл = со J j" ‘ ‘ * J* ^2* • • •» f • •,, хп) rf.Vj dx2 . *. dxn. (10.1.19)
218 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Формула (10.1.19) называется интегральной формулой полной вероятности. Нетрудно заметить, что по своей структуре она сходна с формулой полной вероятности, если заменить дискретный ряд ги- потез непрерывной гаммой, сумму — интегралом, вероятность гипо- тезы — элементом вероятности: f(x„ х2...... x„)dxl dx2... dx„, а условную вероятность события при данной гипотезе — условной вероятностью события при фиксированных значениях случайных ве- личин: Ра(Х1. х2.....х„). Не менее часто, чем интегральной формулой полиой вероятности, пользуются интегральной формулой полного математического ожидания. Эта формула выражает среднее (полное) математическое ожидание случайной величины Z, значение которой принимается в опыте, условия которого заранее неизвестны (случайны). Если эти условия характеризуются непрерывными случайными величинами х,. X,.....х„ с плотностью распределения f(.xv хг, .... х,:). а математическое ожидание величины Z есть функция от величин Л\. Х2.....Хп: тг(Хх. Х2.....Хя). то полное математическое ожидание величины Z вычисляется по формуле оо = f f f хг. .... х„)/(х,. xs.....xn)dxldx2 ... dx,.. (10.1.20) которая называется интегральной формулой полного матема- тического ожидания. Пример 6. Математическое ожидание расстояния D, на котором будет обнаружен объект с помощью четырех радиолокационных станций зависит от некоторых технических параметров этих станций: X,, Ха, Х„ Х„ которые представляют собой независимые случайные величины с плотностью распределения /(*!. Л2, Хъ, Х4) = f, (X)) /2 (Л2) /8 (Х3) /4 (Л4). При фиксированных значениях параметров Х( = xt, Ха == х2, Хе« xj. Х4 = л* математическое ожидание дальности обнаружения равно mD (Xi. х2, ла, л4).
Ю.2] ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 219 Найти среднее (полное) математическое ожидание дальности обнару- жения. Решение. По формуле (10.1.20) имеем: со = J f J J «D(*r *3- x^fi(xi)h(xi)fa(x^^^ix“,x‘l,x>dx- 10,2. Теоремы о числовых характеристиках В предыдущем п° мы привели ряд формул, позволяющих нахо- дить числовые характеристики функций, когда известны законы рас- вределения аргументов. Однако во многих случаях для нахождения числовых характеристик функций не требуется' знать даже законов распределения аргументов, а достаточно знать только некоторые их числовые характеристики; прн этом мы вообще обходимся без ка- ких бы то ни было законов распределения. Определение числовых характеристик функций по заданным числовым характеристикам ар- гументов широко применяется в теории вероятностей и позволяет значительно упрощать решение ряда задач. По преимуществу такие упрощенные методы относятся к лннейиым функциям; однако неко- торые элементарные нелинейные функции также допускают подобный подход. В настоящем п° мы изложим ряд теорем о числовых характери- стиках функций, представляющих в своей совокупности весьма про- стой аппарат зычнеления этих характеристик, применимый в широком круге условий. 1. Математическое ожидание неслучайной величины Если с — неслучайная величина, то Л1|с] = с. Сформулированное свойство является достаточно очевидным; дока- зать его можно, рассматривая неслучайную величину с как частный вид случайной, при одном возможном значении с вероятностью еди- ница; тогда по общей формуле для математического ожидания: М [с] = с • 1 = с. 2. Дисперсия неслучайной величины Если с — неслучайная величина, то D[c] = 0. Доказательство. По определению дисперсии D [с] = М [с2] == М Ц(с — гнс)2] = Л1 [(с — с)2] = М £0J = 0.
220 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 3. Вынесение неслучайной величины за знак математического ожидания Если с — неслучайная величина, а X— случайная, то AffcX] = cAl(X], (10.2.1) т, е. неслучайную величину можно выносить за знак мате- матического ожидания. Доказательство. в) Для прерывных величии М [г А'] = 2 cxiPi = с 5 xiPi = сМ 1М- I i б) Для непрерывных величин со СО AJ[cX] = J cxf(x)dx — c J xf(x)dx=cM\X]. 4. Вынесение неслучайной величины ва знак дисперсии и среднего квадратического отклонения Если с — неслучайная величина, а X — случайная, то DIcXl = c2DIX]. (10.2.2) т. е. неслучайную величину можно выносить за знак диспер- сит возводя ее в квадрат. Доказательство. По определению дисперсии D k X] = Л1 [(сХ — М 1сХ] )21 = = М 1(сХ — cm J2] = сШ [{X — тх?\ = c2D I А*]. Следствие О1сХ] = |с|в[Х1. т. е. неслучайную величину можно выносить за знак среднего квад- ратического отклонения ее абсолютным значением. Доказательство получим, извлекая корень квадратный из формулы (10.2.2) и учиты- вая, что с.к.о.—существенно положительная величина.
XU 2) ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 221 5. Математическое ожидание суммы случайных величин Докажем, что для любых двух случайных величин X и У Л1[Х + У) = М1Х] + ЛЦУ1. (10.2.3) т. е. математическое ожидание суммы двух случайных величин равно сумме их математических ожиданий. Это свойство известно под названием теоремы сложения мате- матических ожиданий. Доказательство. а) Пусть (X, К) — система прерывных случайных величин. При- меним к сумме случайных величин общую формулу (10.1.6) для ма- тематического ожидания функции двух аргументов: Л11X -J- У] = (xz -j- yf) ptf » =2 2 2 2 = 2 xi 2 Pi/ 4~ 2 У/ 2 Pip Ho 2 plf представляет собой не что иное, как полную вероят- ность того, что величина X примет значение xti ^Рц~р(Х ~ xt) ~ р/, следовательно, 2 xi 2 Pi/ = 2 xiPi =* Л* IX]. Аналогично докажем, что 2уу2ау=лпп и теорема доказана. б) Пусть (X, У)— система непрерывных случайных величин. По формуле (10.1.7) Л1 [X -у- У] == J f (ХЧ~ У) f (х> У) dx dy = « со = J J ХНХ- y)dxdy + j J yf(x. y)dxdy. (10.2.4) —t» —co
222 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ, 10 Преобразуем первый из интегралов (10.2.4): со со | со J J xf(x, y)dxdy = J х! J f(x. y)dy ldx = _oo —co [ —co J = / xfi M = M [X]; —CO аналогично J J у fix. y)dxdy = M [Г], и теорема доказана. Следует специально отметить, что теорема сложения математи- ческих ожиданий справедлива для любых случайных вели- чин — как зависимых, так и независимых. Теорема сложения математических ожиданий обобщается на про- извольное число слагаемых: (10.2.5) т. е. математическое ожидание суммы нескольких случайных величин равно сумме их математических ожиданий. Для доказательства достаточно применить метод полной ин- дукции. 6. Математическое ожидание линейной функции Рассмотрим линейную функцию нескольких случайных аргументов Х2....Хп: 2j а^-^-Ь, где at, b — неслучайные коэффициенты. Докажем, что Л1 [Д“Л+4]=Д 0<Л1[А-(] + *. (10.2.6) т. е. математическое ожидание линейной функции равно той ж« линейной функции от математических ожиданий аргументов.
10.2] ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 223 Доказательство. Пользуясь теоремой сложения м. о. к пра- вилом вынесения неслучайной величины аа знак м. о., получим; л ^2 Oix(+ьj = м [ 2 0>х,] + м [я = л п =2 л11о(а-,)+*=2 uMixj+t. Zol 7. Дисперсия суммы случайных величин Дисперсия суммы двух случайных величин равна сумме их диспер- сий плюс удвоенный корреляционный момент: О [X4- И = D (ХИ- D [И 4- 2А\у. (10.2.7) Доказательство. Обозначим Z=X4-K. (10.2.8) По теореме сложения математических ожиданий mx=zmx-^mr (10.2.9) Перейдем от случайных величин X, У, Z к соответствующим центрированным величинам X, У, Z, Вычитая почленно нз равенства (10.2.8) равенство (10.2.9). имеем: i=X4-k По определению дисперсии D [X 4- и «= D [Z\ = М [Z2! = = М [Х2] + 2М [ХУ] 4- М [Г2] = О [Х\ 4- 2Хгу 4- D | И. что и требовалось доказать. Формула (10.2.7) для дисперсии суммы может быть обобщена на любое число слагаемых: о[£ *,] = io[X,] + 2(2 Kt,. (10.2.10) где — корреляционный момент величин Xt, Xfi знак <</ под суммой обозначает, что суммирование распространяется иа все воз- можные попарные сочетания случайных величин (Хв. Xit .... Хн).
224 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. К Доказательство аналогично предыдущему и вытекает из формулы для квадрата многочлена. Формула (10.2.10) может быть записана еще в другом виде: D ^2 А"( j = 2 2 К,,. (10.2.1 i) где двойная сумма распространяется на все элементы корреляцион- ной матрицы системы величин (ХР Х2.......Хп), содержащей как корреляционные моменты, так и дисперсии. Если все случайные величины (ХР Х2. ..., Хп), входящие в си- стему, некоррелированы (т. е. Кц = 0 при i^J)t формула (10.2.10) принимает вид: D [1 = 2 О [X,], (10.2.12) т. е. дисперсия суммы некоррелированных случайных величин равна сумме дисперсий слагаемых. Это положение известно под названием теоремы сложения дисперсий. 8. Дисперсия линейной функции Рассмотрим линейную функцию нескольких случайных величин,| C/Xj bt где at, b — неслучайные величины. Докажем, что дисперсия этой линейной функции выражается формулой o[i“A+',] = 2“’o[^]+! 2 (10.2.13] где Кц—корреляционный момент величии X., Xу. Доказательство. Введем обозначение: И 2] ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 225 где К7)— корреляционный момент величин Yt, Y р K'^ = MIY,YI\. Вычислим этот момент. Имеем: Yi —i. Yi ~И[Х 1', аналогично Xj? = M [aiaJXlXj\ = aia/M \ХкХ/\ = Подставляя это выражение в (10.2.15)» приходим к формуле (10.2.13). В частном случае, когда все величины (Хр Х2....Xj некор- релированны. формула (10.2.13) принимает вид: D^2o(X/4-(>j = 3o?D[A'fI. (10.2.16) т. е. дисперсия линейной функции некоррелированных случай- ных величин равна сумме произведений квадратов коэффициен- тов на дисперсии соответствующих аргументов1). 9. Математическое ожидание произведения случайных величии Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс корреляцион- ный момент; Л1 (ХИ= Л1 [XIМ [Г[ -ЬХЖГ (10.2.17) Доказательство. Будем исходить из определения корреля- ционного момента: кяу = М(ХИ = М ((X — mJ (Г — mjl. Г.1Р Тогда 2аЛ + *=2 + (10.2.14 1-1 1-1 Применяя к правой части выражения (10.2.14) формулу (10.2.IC для дисперсии суммы и учитывая, что D [#] =0. получим: °;°И.]+2.2 тя^=М (Х(; т, = Л1(И- Преобразуем это выражение, пользуясь свойствами математиче- ского ожидания: = М [(X — mJ(K — т JJ = = М [XY] — тЛМ [Г 1 — т,М f X] + тжт, = Л! (ХИ — М |XJ М (И. 'что. очевидно, равносильно формуле (10.2.17). ') Так как независимые величины всегда являются некоррелированными. /10 9 ulTO с0060™- доказываемые в данном ег* для некоррелированных величин, справедливы для независимых величин.
226 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. 10 Если случайные величины (X, У) некоррелироваины (Хлу = 0), то форм}7ла (10.2.17) принимает вид: М [ХГ] = ЛЦХ]М [У]. (10.2.18) т. е. математическое ожидание произведения двух некоррели- рованных случайных величин равно произведению их матема- тических ожиданий. Это положение известно под названием теоремы умножения математических ожиданий. Формула (10.2.17) представляет собой не что иное, как выраже- ние второго смешанного центрального момента системы через второй смешанный начальный момент и математические ожидания; Хху = Ни = ан — »1хту. (10.2.19) Это выражение часто применяется на практике при вычислены корреляционного момента аналогично тому, как для одной случайно! величины дисперсия часто вычисляется через второй начальный мо- мент и математическое ожидание. |] Теорема умножения математических ожиданий обобщается и ч произвольное число сомножителей, только в этом случае для ее при- менения недостаточно того, чтобы величины были некоррелированж а требуется, чтобы обращались в нуль и некоторые высшие смеши- ные моменты, число которых зависит от числа членов в произведет Эти условия заведомо выполнены при независимости случайных вет- чин, входящих в произведение. В этом случае м [Й *<] = Д м И<1. (Ю.2Л т. е. математическое ожидание* произведения независимы случайных величин равно произведению их математичек ожиданий. Это положение легко доказывается методом полной индук-лл 10. Дисперсия произведения независимых случайных величин Докажем, что для независимых величин X, У D[ХИ =* DI ATI DIУ ] -j- т*р [KJ 4- mjD [X]. (10.2.U Доказательство. Обозначим ХУ = Z. По определен дисперсии fl D [ХУ] = DIZI = М [±а] = М [(Z — /п.)2].
М2] ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 227 ‘Так как величины X. Y независимы, тх=тхту и D[ХК] = М 1(ХК — тхту)2] = М [Х2И] — 2тхтуМ [ХК] + m2mj. При независимых X, К величины X2. У2 тоже независимы1); следовательно, ЛЦХ’Г^АЦХ^АЦИ]. М[ХУ] = тхту н D [ХИ = М [X2] М [Г2] — т2т2. (10.2.22) Но ЛЦХ2] есть не что иное, как второй начальный момеит вели- чины X, и, следовательно, выражается через дисперсию: М [Х2] = О[Х[4-т2; аналогично Подставляя эти выражения в формулу (10.2.22) и привода подоб- ные члены, приходим к формуле (10.2.21). В случае, когда перемножаются центрированные случайные вели- ины (величины с математическими ожиданиями, равными нулю), фор- Мут» (10.2.21) принимает вид: D [ХИ = DIX] D [И. (10.2.23) г. е. дисперсия произведения независимых центрированных щуча Иных величин равна произведению их дисперсий. И. Высшие моменты суммы случайных величин В некоторых случаях приходится вычислять высшие моменты сумым независимых случайных величин. Докажем некоторые относя- щиеся сюда соотношения. 1) Если величины X, V независимы, то Рз1^+И = р31Х1-ЬР-з1И- (10.2.24) Доказательство. hl*+ и = Л1 [(Х+ У - т, — mJ’] = I = ЛЦ((Х —mJ + (K —mj)3] = = М ](Х — mJ3] + ЗЛ1 ](Х — mJ2 (К — mJ] + К+ ЗМ ](Х — тх) (У — mJ3] + Л1 ](Г - и J3], ') Можно доказать, что любые функции от независимых случайных •еичнн также независимы.
228 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. ) откуда по теореме умножения математических ожиданий Рз [Х + И = Нз [*] + Эр, [X] Hi [Г] + 3И1 [Г] н [X] 4- р3 [KJ. Но первый центральный момент у., для любой величины равен нулю; два средних члена обращаются в нуль, и формула (10.2.24) доказана. Соотношение (10.2.24) методом индукции легко обобщается на произвольное число независимых слагаемых: Нз [£*,] = 2 М*,). (10.2.25) 2) Четвертый центральный момент суммы двух независимых слу- чайных величин выражается формулой Р4 [X 4- и = Н4 HI + НIИ 4- 6ОХОУ. (10.2.26) где Dy — дисперсии величин X и Y. Доказательство совершенно аналогично предыдущему. Методом полной индукции легко доказать обобщение формулы (10.2.26) на произвольное число независимых слагаемых: Н [.S *<] = 2 N I*,] + о 2 DX(DX/. (10.2.27) Аналогичные соотношения в случае необходимости легко вывести и для моментов более высоких порядков. 12. Сложение некоррелированных случайных векторов Рассмотрим на плоскости хОу два некоррелированных случайнмх вектора V — математические он ционный момент составляющих: вектора: вектор с составляю- щими (Хр Fj) и вектор 1/2 с соста- вляющими (Х2, F2) (рис. 10.2.1). Рассмотрим их векторную сумму: Р = ИГЧ-И2. т. е. вектор с составляющими: Х=Х14-Х2. г Y = F, 4- К2. Требуется определить число- вые характеристики случайного идания тх, ту, дисперсии и корреля-
10 2} ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 229 По теореме сложения математических ожиданий; тх = тх, mxj ту = ту,+ту1- По теореме сложения дисперсий D^Dx^Dx;. Dy-°y.+ Dy.- Докажем, что корреляционные моменты также складываются: КУУ = К^ + КУ,У.- <10“8) где К . КХзУ*— корреляционные моменты составляющих каждого из векторов l/j н К2. Доказательство. По определению корреляционного момента: Кху = М \XY\ = Л! [(X, 4- Д) (Г, 4- Ь)1— = М IX.EJ 4- Л! 1Х-Л14- М iX.rj 4- М IX2rj. (10.2.29) Так как векторы 1/2 некоррелированны, то два средних члена в формуле (10.2.29) равны нулю; два оставшихся члена представляют собой Кху> и Кху’, формула (10.2.28) доказана. Формулу (10.2.28) иногда называют «теоремой сложения корре- ляционных моментов». Теорема легко обобщается на произвольное число слагаемых. Если имеется две некоррелированные системы случайных величии, т. е. два п-мерных случайных вектора: X с составляющими Хр Х2, ..., ХП, Y с составляющими Кр К2. .... Уп, го их векторная сумма Z = X4- Y имеет корреляционную матрицу, элементы которой получаются сум- мированием элементов корреляционных матриц слагаемых: (ю.2.30) где Kip K^j, К?/ обозначают соответственно корреляционные мо- MtHTbi величин (Zp Zy); (Xf. Xf). (Гр Y}). Формула (10.2.30) справедлива как при t=J, так и при 1ф]. Действительно, составляющие вектора Z равны: Z^X^T,; Z2 = Х2 4" Y 2> Zn = Xn+Yn.
230 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 По теореме сложения дисперсий Dzt = DXl Dyt. или в других обозначениях ч-кй’. По теореме сложения корреляционных моментов при 1 + j kV=kw+k4J. В математике суммой двух матриц называется матрица, элементы которой получены сложением соответствующих элементов этих мат- риц. Пользуясь этой терминологией, можно сказать, что корреля- ционная матрица суммы двух некоррелированных случайных векторов равна сумме корреляционных матриц слагаемых: ]|M7li = ||M7ll + 11^11- (10.2.31) Это правило по аналогии с предыдущими можно назвать «теоре- мой сложения корреляционных матриц». 10.3. Применения теорем о числовых характеристиках В данном п° мы продемонстрируем применение аппарата числовых характеристик к решению ряда задач. Некоторые из этих задач имеют самостоятельное теоретическое значение н найдут применение в дальнейшем. Другие задачи носят характер примеров и приводятся для иллюстрации выведенных общих формул на конкретном цифровом материале. Задача 1. Коэффициент корреляции линейно, за- висимых случайных величин. Доказать, что если случайные величины X и У связаны линейной функциональной зависимостью У = аХ + &, то их коэффициент корреляции равен 1 или — 1, смотря по знаку коэффициента а. Решение. Имеем: Кху = M\XY\ = M [(X — тх) (У — ту)1 = = А1 ((Д' — тх) (аХ -j- b — атх — ft)] = аМ [(X — тх)2] ~ aDx, где Dx—дисперсия величины X. Для коэффициента корреляции имеем выражение: _ Кгу ~ V, (10.3.1)
МЛ) ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 231 Для определения оу найдем дисперсию величины У: Подставляя в формулу (10.3.1). имеем: Величина равна -j-1. когда а положительно, и —1, когда а от- рицательно. что и требовалось доказать. Задача 2. Границы коэффициента корреляции. Доказать, что для любых слу- чайных величин Решение. Рассмотрим слу- чайную величину: Z = oyX±axy. где ах. — средние квадратиче- ские отклонения величии X, У. Определим дисперсию величины Z. По формуле (10.2.13) имеем: = ayDx -f- oxDy ± 2олау/Сду, или Dg = 2°xay i 2ахауХху. Рис. 10.3.1. Так как дисперсия любой случайной величины не может быть отрицательна, то 2cj;Oy ± 0, или охау ± Кху > 0. откуда \К„ К 0.0,. а следовательно, что и требовалось доказать. Задача 3. Проектирование случайной точки на плоскости на произвольную прямую. Дана случайная точка на плоскости с координатами (X. У) (рис. 10.3.1). Спроектируем эту точку на ось Oz, проведенную через начало координат под углом а к оси Ох. Проекция точки (X, У) на ось Oz также есть случайная точка; ее расстояние Z от начала координат есть случайная величина. Требуется найти математическое ожидание и дисперсию величины Z.
232 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН (ГЛ. И Решение. Имеем: Z = X cos К slna. Так как Z есть линейная функция аргументов X и К. то тг = тх cos а 4- my sin а; Dz — Dr cos2 а 4” Dy sin2a4- 2Kxy sin a cos a = = Dx cos2 a 4~ Dy sin2 a 4- Kxy sin 2z, где Dv Dy. КХу—вжпъ?сни п корреляционный момент величин {X. Y). Переходя к средним квадратическим отклонениям, получим: о2 = о2 cos2 a 4- Оу slri2 a 4- rxy°Jcay sln 2«- ( 10.3.2) В случае некоррелированных случайных величин (при гху = 0) a2 = a2 cos2 a 4-оу sin2 а. (10.3.3) Задача 4. Математическое ожпдаипе числа по- явлений события при нескольких опытах. Производится л опытов, в каждом из которых может появиться илп не появиться событие А. Вероятность появления события Л в Z-м опыте равна р{. Найти математическое ожидание числа появле- ний события. Решение. Рассмотрим прерывную случайную величину АГ — число появлений события во всей серии опытов. Очевидно. х=х,+х,+ ... +Х.. где Хх—число появлений события в первом опыте. Х2—число появлений события во втором опыте. Хп — число появлений события в п-м опыте, или. короче, Х=ЪХ,. 1-1 где Xt — число появлений события в I-м опыте1). Каждая из величии Xt есть прерывная случайная величина с дв> мя возможными значениями: 0 и 1. Ряд распределения величины Xt имеет вид: 0 1 ----------. (10.3 4) Vi Pi где qt = 1 — Pi — вероятность непоявления события А в l-м опыте. *) Иначе — характеристическая случайная величина события А в i-м оямте
ЮЛ] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 233 По теореме сложения математических ожиданий m =Л1[Х1=£т. (10.3.5) /«1 i не тх—математическое ожидание величины Xt. Вычислим математическое ожидание величины Xt. По определе- нию математического ожидания тх =0 ^4-1 - pt = pt. Подставляя это выражение в формулу (10.3.5), имеем (10.3.6) f=l т е. математическое ожидание числа появлений события при нескольких опытах равно сумме вероятностей события в от- дельных опытах. В частности, когда ус товия опытов одинаковы и Р1=^Р2— =РЛ = Р» формула (10.3.5) принимает вид тх — пр. (10.3.7) Так как теорема сложения математических ожиданий применима к любым случайным величинам — как зависимым, так п независимым, формулы (10.3.6) и (10.3.7) применимы к любым опытам—зависи- мый и независимым. Выведенная теорема часто применяется в теории стрельбы, когда требуется найти среднее число попаданий при нескольких выстре- лах—зависимых или независимых. Математическое ожидание числа попаданий при нескольких выстрелах равно сумме ве- роятностей попадания при отдельных выстрелах. Задача 5. Дисперсия числа появлений события при нескольких независимых опытах. Производятся п независимых опытов, в каждом из которых мо- жет появиться событие А. причем вероятность появления события А в /-м опыте равна pt. Найти дисперсию и среднее квадратическое отклонение числа появлений события А. Решение. Рассмотрим случайную величину X — число появле- ний события А. Так же как я предыдущей задаче, представим вели- чину X в виде суммы: х = 2 х,. i=l где Х( — число появлений события в 1-м опыте.
234 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН |ГЛ 10 В силу независимости опытов случайные величины Xv Х2.......Хп независимы и к ним применима теорема сложения дисперсий: d,= S J-L Найдем дисперсию случайной величины Xt. Из ряда распределе- ния (10.3.4) имеем: = (0 — р,)! q, + (1 — pjf р, = откуда (10.3.8) *=1 т. е. дисперсия числа появлений события при нескольких независимых опытах равна сумме вероятностей появления и непоявления события в каждом опыте. Из формулы (10.3.8) находим среднее квадратическое отклонение числа появлений события А: ох=1/ SpM- (10.3.9) г 1=1 При неизменных условиях опытов, когда рх = р2 = ... = рп == р, формулы (10.3.8) и (10.3.9) упрощаются и принимают вид: Задача 6. Дисперсия числа появлений события при зависимых опытах. Производится « зависимых опытов, в каждом из которых может появиться событие А, причем вероятность события А в Z-м опыте равна р{(1=:1, 2. .... я). Определить дисперсию числа появлений события. Решение. Для того чтобы решить задачу, снова представим число появлений события X в виде суммы: (10.3.11) »=1 где (1, если в Z-м опыте событие А появилось, 0, если в Z-м опыте событие А ие появилось. Так как опыты зависимы, то нам недостаточно задать вероятности •••• Рп Ру Ръ*
ЮЗ] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 235 того, что событие А произойдет в первом, втором, третьем и т. д. опытах. Нужно еще задать характеристики зависимости опытов. Оказывается, для решения нашей задачи достаточно задать вероят- ности совместного появления события А как в Z-м, так и в /-м опыте: P((Xl = l)(Xj = 1) = Plr Предположим, что эти вероят- ности заданы. Применим к выражению (10.3.11) теорему о дисперсии суммы (формулу (10.2.10)): Ох=2Ох, + 2 2к;.. (10.3.12) i=l 1 к/ где Кц— корреляционный момент величин Xt, Х[. Ku=M[XtX,]. По формуле (10.2.19) Kt/ = M [XtXj] = M [XtX,] — plP/. (10.3.13) Рассмотрим случайную величину X{Xf. Очевидно она равна нулю, если хотя бы одна из величин Xt, X/ равна нулю, т. е. хотя бы в одном из опытов (Z-м или /-м) событие Д не появилось. Для того чтобы величина XtXj была равна единице, требуется, чтобы в обоих опытах (Z-м и /-м) событие А появилось. Вероятность этого равна Рц. Следовательно, ЛЦХ'Х^Р,,. и Кц = рц—Р1Рг Подставляя это выражение в формулу (10.3.12), получим: л D*= 2 Р,9< + 2(2 (Р/; —(10.3.14) Формула (10.3,14) и выражает дисперсию числа появлений собы- тия при зависимых опытах. Проанализируем структуру этой формулы. Первый член в правой части формулы представляет собой дисперсию числа появлений события при независимых опытах, а второй дает «поправку на зависимость*. Если вероятность Plf равна ptP). то эта поправка равиа нулю. Если вероятность Plf больше, чем plPj, это значит, что условная вероятность появления события А в /-м опыте при условии, что в Z-м опыте оно появилось, больше, чем простая (безусловная) вероятность появления события в /-м опыте pf (между появлениями события в Z-м и /-м опытах имеется положительная кор- реляция). Если это так для любой пары опытов, то поправочный член в формуле (10.3.14) положителен и дисперсия числа появлений события при зависимых опытах больше, чем при независимых.
236 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ 10 Если вероятность Ptf меньше, чем ptpf (между появлениями события в Z-м и /-м опытах существует отрицательная корреляция), то соответствующее слагаемое отрицательно. Если это так для любой пары опытов, то дисперсия числа появлений события при зависимых опытах меньше, чем при независимых. Рассмотрим частный случай, когда Р\~ Pz~ =Рп~Р> Рп = Р]2 = ... = Р, т. е. условия всех опытов одинаковы. Фор- мула (10.3.14) принимает вид: Dx — npq-^-2 У, (Р— p'2) = npq±n(n— 1)(Р —р2), (10.3.15) • </ где Р — вероятность появления события А сразу в паре опытов (все равно каких). В этом частном случае особый интерес представляют два подслучая: 1. Появление события А в любом из опытов влечет за собой с достоверностью его появление в каждом иа остальных. Тогда Р = р, и формула (10.3.15) принимает вид: D„ = npq + п (в — 1)(р — р5) = npq-\-n(n — V)pq = tPpq. 2. Появление события А в любом из опытов исключает его появление в каждом из остальных. Тогда Р = 0, и формула (10.3.15) принимает вид: Dx = npq — п(п— \)p'2 = np{q — (п — 1)р] = «р(1 — пр). Задача 7. Математическое ожидание числа объек- тов, приведенных в заданное состояние. На практике часто встречается следующая задача. Имеется не- которая группа, состоящая из п объектов, по которым осуществляется какое-то воздействие. Каждый из объектов в результате воздействия может быть приведен в определенное состояние 5 (например, поражен, исправлен, обнаружен, обезврежен и т. п,). Вероятность того, что Z-й объект будет приведен в состояние S, равна pt. Найти матема- тическое ожидание числа объектов, которые в результате воздействия по группе будут приведены в состояние S. Решение. Свяжем с каждым из объектов случайную величину которая принимает значения 0 или 1: (1, если Z-Й объект приведен в состояние S, 0, если Z-й объект не приведен в состояние 5. Случайная величина X — число объектов, приведенных в состоя- ние S. — может быть представлена в виде суммы; 1=1
10.3] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 237 Отсюда, пользуясь теоремой сложения математических ожиданий, получим: п /Пх = 2 тх,‘ 1=1 ‘ Математическое ожидание каждой из случайных величии известно! Следовательно, mx=Sp<. (10.3.16) 1=1 т. е. математическое ожидание числа объектов, приведенных в состоя- ние 5. равно сумме вероятностей перехода в это состояние для каждого из объектов. Особо подчеркнем, что для справедливости доказанной формулы вовсе не нужно, чтобы объекты переходили в состояние 5 независимо друг от друга» Формула справедлива для любого вида воздействия. Задача 8. Дисперсия числа объектов, приведен- ных в заданное состояние. Если в условиях предыдущей задачи переход каждого из объектов в состояние 5 происходит независимо от всех других, то, применяя теорему сложения дисперсий к величине i=i получим дисперсию числа объектов, приведенных в состояние S: я я = S Dx = S 9/ = I— Pl- (10.3.17) 1 = 1 1 i=l Если же воздействие по объектам производится так, что переходы в состояние 5 для отдельных объектов зависимы, то дисперсия числа объектов, переведенных в состояние S. выразится формулой (см. задачу 6) я 2 РЛ + 2^2 (Pi)~PiPi>- (10.3.18) где Plf— вероятность того, что и результате воздействия Z-Й и /-Й объекты вместе перейдут в состояние 5. Задача 9. Математическое ожидание числа опытов до й-го появления события. Производится ряд независимых опытов, в каждом из которых может с вероятностью р появиться событие А. Опыты проводятся до тех пор, пока событие А не появится k раз, после чего опыты
238 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 прекращаются. Определить математическое ожидание, дисперсию и с. к. о. числа опытов X, которое будет произведено. Решение. В примере 3 п° 5.7 были определены математическое ожидание и дисперсия числа опытов до первого появления события Л: m=s —, D = Р Р* где р — вероятность появления события в одном опыте, q = 1 — р — вероятность непоявления. Рассмотрим случайную величину X — число опытов до й-го по- явления события А. Ее можно представить в виде суммы: = ... где Хг — число опытов до первого появления события А, Х2—число опытов от первого до второго появления события Л (считая второе). X* — число опытов от (й— 1)-го до й го появления события А (считая й-е). Очевидно, величины Xv Х2, .... Хк независимы; каждая нз них распределена по тому же закону, что и первая из них (число опытов до первого появления события) и имеет числовые характеристики "4=1’ Применяя теоремы сложения математических ожиданий и дисперсий, получим: (10.3.19) Задача 10. Средний расход средств до достижения заданного результата. В предыдущей задаче был риссмотреи случай, когда предпри- нимается ряд опытов с целью получения вполне определенного ре- зультата— й появлений события А. которое в каждом опыте имеет одну и ту же вероятность. Эта задача является частным случаем другой, когда производится ряд опытов с целью достижения любого результата В, вероятность которого с увеличением числа опытов п возрастает по любому закону Р(п). Предположим, что на каждый опыт расходуется определенное количество средств а. Требуется
s— -----------------------------------—-------------- 103] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 239 найти математическое ожидание количества средств, которое будет израсходовано. Решение. Для того чтобы решить задачу, сначала предположим, что число производимых опытов ничем не ограничено, и что они продолжаются и после достижения результата В. Тогда некоторые из этих опытов будут излишними. Условимся называть опыт «не- обходимым», если ои производится при еще не достигнутом резуль- тате В, и «излишним», если он производится при уже достигнутом результате В. Свяжем с каждым (Z-м) опытом случайную величину Xt. которая равна нулю или единице в зависимости от того, «необходимым» или «излишним» оказался этот опыт. Положим I. если опыт оказался «необходимым», 0. если он оказался «излишним». Рассмотрим случайную величину X— число опытов, которое придется произвести для получения результата В. Очевидно, ее можно представить в виде суммы: X 4~ Х% 4~ ... 4~ 4" ... (10.3.20) Из величин в правой части (10.3.20) первая (А\) является неслу- чайной и всегда равна единице (первый опыт всегда «необходим»). Каждая из остальных—случайная величина с возможными значе- ниями 0 и 1. Построим ряд распределения случайной величины Xt (/ > I). О и имеет вид: О 1 ----------------------(10.3.21) 1-Р(/-1) где Р(1— 1) — вероятность достижения результата В после Z—1 опытов. Действительно, если результат В уже был достигнут при пре- дыдущих I — 1 опытах, то Xt = Q (опыт излишен), если не достигнут, то Х; — 1 (опыт необходим). Найдем математическое ожидание величины Xt. Из ряда распре- деления (10.3.21) имеем: mXl = 0P(l~ l)-fl JI—P(Z—1)] = 1—P(Z —1). Нетрудно убедиться, что та же формула будет справедлива и при I — 1, так как Р(0) = 0. Применим к выражению (10.3.20) теорему сложения математи- ческих ожиданий. Получим: оо со = [1 — рц—oi
240 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЯ СЛУЧАЙНЫХ ВЕЛИЧИИ 1ГЛ- 10 им, обозначая I— 1=Л, тх=2(1-Р(4)1. (10.3.22) *«0 Каждый опыт требует затраты средств а. Умножая полученною величину тх на а. определим среднюю затрату средств на достиже- ние результата В: sB=« 211—Р (Л». (10.3.23) АсО Данная формула выведена в предположении, что стоимость каждого опыта одна м та же. Если это не так. то можно применить другой прием — представить суммарную затрату средств SB как сумму затрат на выполнение отдельных опытов, которая принимает два значения: если /-Й опыт «необходим», л нуль, если он «излишен». Средний расход средств представится в виде: ₽(М). (10.3.24) *=0 Задача 11. Математическое ожидание суммы слу- чайного числа случайных слагаемых. В ряде практических ириложений теории вероятностей приходится встречаться с суммами случайных величин, в которых число слагаемых заранее неизвестно, случайно. Поставим следующую задачу. Случайная величина Z представляет собой сумму У случайных величин: V Z=2*p (10.3.25) »=1 причем У—также с ту чайная величина. Допустим, что нам известны математические ожидания mXf всех слагаемых: mXt = M[X,]. л что величина У не зависит ни от одной из величин Xf. Требуется найти математическое ожидание величины Z. Решение. Число слагаемых в сумме есть дискретная случайная величина. Предположим, что нам известен ее ряд распределения: у* 1 2 ... * где рк— вероятность того, что величина У приняла аначенвс k. Зафиксируем значение У = к и найдем лрм этом условии математи-
W21 ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 241 четкое ожидание величины Z (условное математическое ожидание); * a»iz|*i = 2»v (ю.3.26) Теперь применим формулу полного математического ожидания, для чего умножим каждое условное математическое ожидание на вероятность соответствующей гипотезы рл и сложим; (10.3.27) * *=1 * Особый интерес представляет с.тучай. когда все случайные вели- чины Л\. Х2, . - - имеют одно н то же математическое ожидание: nt Xj = flljj =S - • • == nt_. Тогда формула (10.3.26) принимает вид: * М \Z\ k] = ^mx = kmx i=i и M |Z) = тл v kpt. (10.3.28) i Сумма в выражении (10.3.28) представляет собой не что иное, как натематическое ожидание величины F:- ж =2S Отсюда тг — М [ZJ = тх • жу, (10.3.29) т. е. математическое ожидание суммы случайного числа случайных слагаемых с одинаковыми средними значениями (если только число слагаемых ие зависит от их значений) равно произведению среднего значевия каждого из слагаемых на среднее число слагаемых. Снова отметим, что полученный результат справедлив как для независимых, так н для зависимых слагаемых Л\. Л2.........лишь бы число слагаемых Y не зависело от самих слагаемых. Ниже мы решим ряд конкретных примеров нз разных областей практики. на которых продемонстрируем конкретное применение общих методов оперирования с числовыми характеристиками, выте- кающих нз доказанных теорем, и специфических приемов, связанных с решенными выше общими задачами. Пример I. Монета бросается 10 раз. Определить математическое ожи- дание я среднее квадратическое отклонение числа X выпавших гербов. Решение. По формулам (10.3.7) и (103.10) найдем: 10-0,5 = 5; Dr = 10-0.5-0.5 = 2Д ох=1<58. Прим ер 2. Производится 5 независимых выстрелов по круглой мишени диаметром 20 см. Прицеливание — ио центру мишени, систематическая
242 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЯ случайных ВЕЛИЧИН [ГЛ. 10 ошибка отсутствует, рассеивание — круговое, среднее квадратическое откло- нение а = 16 СМ. Найти математическое ожидание и с. к. о. числа попаданий. Решение. Вероятность попадания в мишень при одном выстреле вычислим по формуле (9.4.5): * р = 1 — е~ = 1 —г-».®5 я 0,465. Пользуясь формулами (10.3.7) и (10.3.10), получим: тх = 5р я 2,32; = 5р (1 — р) я 1,25; ах « 1,12. Пример 3. Производится отражение воздушного налета, в котором участвует 20 летательных аппаратов типа 1 и 30 летательных аппаратов типа 2. Летательные аппараты типа 1 атакуются истребительной авиацией. Число атак, приходящееся на каждый аппарат, подчинено закону Пуассона с параметром Д|=2,5. Каждой атакой истребителя летательный аппарат типа 1 поражается с вероятностью А = 0,6. Летательные аппараты типа 2 ата- куются зенитными управляемымиракетамн. Число ракет, направляемых ва каж- дый аппарат, подчинено закону Пуассона с параметром а3 = 1,8, каждая ракета поражает летательный аппарат типа 2 с вероятностью р3 = 0,8. Все аппараты, входящие в состав налета, атакуются и поражаются независимо друг от друга. Найти: 1) математическое ожидание, дисперсию и с. к. о. числа пораженных летательных аппаратов типа 1; 2) математическое ожидание, дисперсию н с. к. о. числа пораженных летательных аппаратов типа 2; 3) математическое ожидание, дисперсию н с. к. о. числа пораженных летательных аппаратов обоих типов. Решение. Рассмотрим вместо «числа атак» на каждый аппарат типа 1 «число поражающих атак», тоже распределенное по закону Пуассона, но с другим параметром: a* = р]а1 = 0,6 2,5 — IJ5. Вероятность поражения каждого из летательных аппаратов типа 1 будет равна вероятности того, что на него придется хотя бы одна поражаю- щая атака: (Г1-6 я 0,777. Вероятность поражения каждого нз летательных аппаратов типа 2 найден аналогично: Я® = I — ° " '•8 = 1 — г-,'и « 0,763. Математическое ожидание числа пораженных аппаратов типа 1 будет: т,= 20-0,777 = 15.5. Дисперсия н с. к. о. этого числа: Di = 20 0,777 - 0,223 = 3,46, о, и 1,86. Математическое ожидание, дисперсия числа н с. к. о. пораженных аппа- ратов типа 2: • т, = 30 - 0,763 = 22,8, О3=5,41, о, я 2,33. Математическое ожидание, дисперсия и с. к. о. общего числа поражен- ных аппаратов обоих типов: т = mi -j- mt = 38,3. D = -|- D3 = 8,87. аа as 2,97»
10.3] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 243 Пример 4. Случайные величины X и ¥ представляют собой элемен- тарные ошибки, возникающие на входе прибора. Они имеют математические ожидания тх ——2 и ту~4, дисперсии Dx = 4 и Dy=9; коэффициент корреляции этих ошибок равен гху —— 0,5. Ошибка иа выходе прибора связана с ошибками на входе функциональной зависимостью: Z = ЗА? — 2XY 4- Гя — 3. Найти математическое ожидание ошибки иа выходе прибора. Решение. тг = М j Z] = 3Af 1№J — 2М [ХГ J + МI Г2] — 3. н центральными моментами н Рис. 10.3.2. Пользуясь связью между начальными формулой (10.2.17), имеем: М ]Х21 = а2 (XI = Ох+ П?ж = 8; М 1Г21 = «2 [Г] = £>, + ш2 = 25; 44 |ХГ] = тжту + К„ = = тхту 4- гхуахау -- — 11, откуда mz = 3-8—2-(—11)4-25 — 3 = 68. Пример 5. Самолет производит бом- бометание по автостраде, ширина которой 30 м (рнс. 10.3.2). Направление полета со- ставляет угол 30° с направлением авто- страды. Прицеливание — по средней линии автострады, систематические ошибки отсут- ствуют. Рассеивание задано главными ве- роятными отклонениями: по направлению полета Вл — 50 м и в боковом направлении Дб = 25 м. Найти вероятность попадания в автостраду при сбрасывании одной бомбы. Решение. Спроектируем случайную точку попадания на ось Oz, пер- пендикулярную к автостраде и применим формулу (10.3.3). Она, очевидно, остается справедливой, если в нее вместо средних квадратических подста- вить вероятные отклонения: = Еж cos 60° + £2 sin 60° = SO2 0,25 Ц- 252 • 0,75 я 1093. Отсюда £‘Я33’ Вероятность попадания в автостраду найдем по формуле (6.3.10): I » 0,238. —ш- Примечание. Примененный здесь прием пересчета рассеивания к другим осям пригоден только для вычисления вероятности попадания в область, имеющую вид полосы; для прямоугольника, стороны которого повернуты под углом к осям рассеивания, он уже не годится. Вероятность попадания в каждую из полос, пересечением которых образован прямоуголь- ник, может быть вычислена с помощью этого приема, однако вероятность
244 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. ю попадания в прямоутольвнк уже не равна произведению вероятностей по- падания в полосы, так как эти события зависимы. Пример 6. Производится наблюдение с помощью системы радиоло- кацнонных станций за группой объектов в течение некоторого времени; группа состоит из четырех объектов; каждый из ннх за время t обнаружи- вается с вероятностью, равной соответственно: pi = 0,2. ра = 0,25, ра = 0,35, = 0,42. Найти математическое ожидание числа объектов, которые будут обна- ружены через время t. Решение. По формуле (10.3.16) имеем: 4 тх = S Pi — °-2+°’25 + 0135 + °-42 “ |’22‘ Пример 7. Предпринимается ряд мероприятий, каждое из которых, если оно состоятся, приносит случайный чистый доход X. распределенный по нормальному закону со средним значением тп — 2 (условных единиц). Число мероприятий за данный период времени случайно н распределено по закону yt I 2^3 4 Pt 02 0.3 0.4 0.1 причем не зависит от доходов, приносимых мероприятиями. Определить средний ожидаемый доход за весь период. Ре шеи не. На основе задачи 11 данного п° находим математическое ожидание полного дохода Z: /я2 = т х - т у, где /Пд.— средний доход от одного мероприятия, ту — среднее ожидаемое число мероприятий. Имеем* /пу= 1-0.2-1-2.0,34-3-0.44-4-0,1 =2.4, тх = 2, = 2- 2,4 = 4,8. Пример 8. Ошибка прибора выражается функцией £/ = 3Z-|-2X — Y— 4, (10.3.30) где X, Y, Z — так называемые «первичные ошибки», представляющие собой систему случайных величин (случайный вектор). Случайный вектор (Л, Г, Z) характеризуется математическими ожада- ннямн тг = — 4; /Пу=1; тж = \ и корреляционной матрицей:
10 31 ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 245 Определить математическое ожидание, дисперсию н среднее квадратиче- ское отклонение ошибки прибора. Решение. Так как функция (10.3.30) линейна, применяя формулы (10.2.6) в (10.2.13), находим: mu — 3/лл4-2глх — /яу — 4 = —10, Ги = 3»^-|-22.Рх-|-1’.Ру + 2[3.2.К„4-3(-1)Куа + 2(-1)КХу] = 25. оа =5. Пример 9. Для обнаружения источника неисправности в вычислитель- ной машине проводятся пробы (тесты). В каждой пробе неисправность неза- висимо от других проб локализуется с вероятностью р=0,2. На каждую пробу в среднем уходит 3 минуты. Найти математическое ожидание времени, которое потребуется для локализации неисправности. Решение. Пользуясь результатом задачи 9 данного п° (математическое ожидание числа опытов до Л-го появления события Л), полагав k = 1, най- дем среднее число проб '"'=7=о^=5- На эти пять проб потребуется в среднем 5 3 = 15 (минут). Пример 10. Производится стрельба по резервуару с горючим. Вероят- ность попадания при каждой выстреле равна 0,3. Выстрелы независимы. При первом попадании в резервуар появляется только течь горючего, при втором попадании горючее воспламеняется. После воспламенения горючего стрельба прекращается. Найти математическое ожидание числа произведен- ных выстрелов. Решен и.е. Пользуясь той же формулой, что и в предыдущем примере, найдем математическое ожидание числа выстрелов до 2-го попадания: о ”'=•67=6'07- Пример 11. Вероятность обнаружения объекта радиолокатором сро- стом числа циклов обзора растет по закону: Р(Л)=|— 0.8я, где п—число циклов, начиная с начала наблюдения. Найти математическое ожидание числа циклов, после которого объект будет обнаружен. Решение. Пользуясь результатами задачи 10 данного параграфа получим: шж = У, (1 — />(*)] = У 0,8" = fc=0 л=о Г=ад=5- Пример 12. Для того чтобы выполнить определенную задачу по сбору информации, в заданный район высылается несколько разведчиков. Каждый посланный разведчик достигает района назначения с вероятностью 0,7. Для выполнения задачи достаточно наличия в районе трех разведчиков. Один разведчик с задачей вообще справиться не может, а два разведчика выпол- няют ее с вероятностью 0,4. Обеспечена непрерывная связь с районом, и до- полнительные разведчики посылаются, только если задача еще не выполнена.
246 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Требуется найти математическое ожидание числа разведчиков, которые будут посланы. Решение. Обозначим X— число прибывших в район разведчиков, которое оказалось достаточным для выполнения задачи. В задаче 10 дан- ного п° было найдено математическое ожидание числа опытов, которое нужно для того, чтобы достигнуть определенного результата, вероятность которого с увеличением числа опытов возрастает по закону Р (и). Это математическое ожидание равно: wx = У [I — Р(А)]. fc=0 В нашем случае: Р(0) = 0; Р(1) = 0; Р(2) = 0,4; Р(3) = 1; Р(4) = Р(5) = ... =1 Математическое ожидание величины X равно: тж = Л1[Л]= 2 [|—Р(Л)] = 14-1+0,6 = 2,6. k = 0 Итак, для того чтобы задача была выполнена, необходимо, чтобы в район прибыло в среднем 2,6 разведчика. Теперь решим следующую задачу. Сколько разведчиков придется в сред- нем выслать в район для того, чтобы нх в среднем прибыло тх? Пусть послано V разведчиков. Число прибывших разведчиков можно представить в виде x=z}+z2+ ... +zr, где случайная величина Z, принимает значение 1, если Z-й разведчик при- был, н 0, если не прибыл. Величина X есть не что иное, как сумма случай- ного числа случайных слагаемых (см. задачу 11 данного п°). С учетом этого м [Л] = м [ZJ М (Г]. откуда 1 J M[Zi] M[Zt]' но M[Zt] = p, где р— вероятность прибытия отправленного разведчика (в нашем случае p — G,7}- Величина гях нами только что найдена и равна 2,6. Имеем: т,= Л«[Г] = ^-К3,71 Пример 13. Радиолокационная станция просматривает область про- странства, в которой находится N объектов. За один цикл обзора она обна- руживает каждый из объектов (независимо от других циклов) с вероят- ностью р. На один цикл требуется время т. Сколько времени потребуется на то, чтобы из N объектов обнаружить в среднем kt Решение. Найдем прежде всего математическое ожидание числа ебнаружеиных объектов после п циклов обзора. За п циклов один (любой) из объектов обнаруживается с вероятностью
10.3] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 247 а среднее число объектов, обнаруженных за л циклов, по теореме сложения математических ожиданий (см. задачу 5 данного п°) равно: Af[Xj = N[l-(l-/>)"]. Полагая JV[1— (1 — p)nJ = A, получим необходимое число циклов л из уравнения i-o-p)"=4- решая которое, найдем: *(*-4) g(i-₽) откуда время, равно; необходимое для обнаружения в среднем k объектов, будет = тл = г [«| lg (1 ~~Р) Пример 14. Изменим условия примера 13. Пусть радиолокационная станция ведет наблюдение за областью только до тех пор, пока не будет обнаружено k объектов, после чего наблюдение прекращается или продол- жается в новом режиме. Найти математическое ожидание времени, которое для этого понадобится. Для того чтобы решить эту задачу, недостаточно задаться вероятностью обнаружения одного объекта в одном цикле, а надо еще указать, как растет с увеличением числа циклов вероятность того, что из N объектов будет обнаружено не менее k. Проще всего вычислить эту вероятность, если пред- положить, что объекты обнаруживаются независимо друг от друга. Сделаем такое допущение н решим задачу. Решение. При независимых обнаружениях можно наблюдение за N объектами представить как N независимых опытов. После л циклов каждый из объектов обнаруживается с вероятностью Л»=1 -(!-₽)"• Вероятность того, что после л циклов будет обнаружено не менее А объек- тов из N. найдем по теореме о повторении опытов; - ytC"NPn<y-P„)N-m- т - к Среднее число циклов, после которых будет обнаружено не менее k объектов, определится по формуле (10.3.22): «ft’- SВ- 2сЭТ(1-Л,Л"1- л=0 л=О L т = Л J Пример 15. На плоскости хОу случайная точка М с координа- тами (Л, V) отклоняется от требуемого положения (начало координат) под влиянием трех независимых векторных ошибок Vs н V»- Каждый из век- торов характеризуется двумя составляющими: V, (Л-„ Г,). V,(X2, Г,). У,)
248 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН {ГЛ 10 (рнс. 1О.ЗЛ) Числовые характеристике этих трех векторов равны: 1пХ1=2, myt = —3, ах =2. су(=3, г<л = —ОД «ж,--1- т,,--2- '•хл=»5> т = 3, т„ =» I. а = 2, с =2, г, , =0,2. *» ’ у, х» у, х»у, Найти характеристики суммарной ошибки (вектора, отклоняющего точку М от начала координат). Решение. Применяя теоремы сложения математических ожиданий, дисперсий я корреляционных моментов, получим: тх — тТ + И1х тк = 4. гау = гау, 4" гау. 4" m7i =-4. <£ = £ + £, + £,-24, », = >/24 ~ W. <£ = <£+<£+<£=14. оу — /Пи 3,75, ГА= К„. = = -0.3 - 2 - 3 = - 1.8. к, *,.,.='«ЛЛ = ОД-2-2 = 0Л откуда Кж> = —1,84-2,04-0,8 = 1.0 Пример 16. Тело, которое имеет форму прямоугольного параллелепи- педа с размерами а, Ь, с. летит в пространства, беспорядочно вращаясь вокруг веитра массы так, что все его ориентации одинаково вероятны. Тело находится в потоке частиц, н среднее число част щ. встречающихся с телом, пропорционально средней площади, которую тело подставляет потоку. Найти математическое ожидание площади проекции тела на плоскость. пер- пендикулярную направлению его движения. Решение. Так как все ориентации тела в пространстве одинаково вероятны, то направление плоскости проекций безразлично. Очевидно, пло- щадь проекция тела равна половине суммы проекций всех граней паралле- лепипеда (так как каждая точка проекции представляет собой проекцию двух точек на поверхности тела). Применяя теорему сложения математи- ческих ожиданий и формулу для средней площади проекции плоской фигуры (см пример 3 п° 10.1), получим: at дс . fre______ “з= 2 'Г~2 + 2 — 4 ’ где Sa — полная площадь поверхности параллелепипеда. Заметны, что выведенная формула справедлива не только для паралле- лепипеда. но и для любого выпуклого тела: средняя площадь проекции та- кого тела прн беспорядочном вращении равна одной четверти полной его поверхности. Рекомендуем читателю в качестве упражнения доказать это положение.
ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 249 из) Пример 17- На оси абсцисс Ох движется случайным образом точка х по следующему закону. В начальный момент она находится в начале коор- динат н начинает двигаться с вероятностью вправо и с вероятностью -у влево. Пройд* единичное расстояние, точка с вероятностью р продолжает двигаться в том же направлении, а с вероятностью q = 1 — р меняет его нз противоположное. Пройдя еднвичиое расстояние, точка снова с вероят- ностью р продолжает движение э том направлении, в котором двигалась, а с вероятностью 1 — р меняет его иг противоположное и т. х В результате такого случайного блуждания по осн абсцисс точка х после п шагов займет случайное положение, которое мы обозначим Хя. Требуется найти характеристики случайной величины Х& математическое ожидание н дисперсию. Решение. Прежде всего, из соображений симметрии задачи ясно, что /I[Xe|=O, Чтобы найти О(ЛЯ), представим Хп в виде суммы п слагаемых: х.-и,+и,+ ... + *=1 (Ю.3,31) пв £7/— расстояние, пройденное точкой на f-м шаге, т. е. -|-1, если точка двигалась на этом шаге вправо, н —1, если она двигалась влево. По теореме о дисперсии суммы (см. формулу (102.10)) имеем; ОИл1= 2 + Ясно, что D(£7/] = I. так как величина Ut принимает значения н —1с одинаковой вероятностью (из тех же соображений симметрия). Най- дем корреляционные моменты = м lU/fjj. Начнем со случая /=£4-1, когда величины £7f н Uj стоят рядом в сумме (103JJ1). Ясно, что £7/£7<+1 принимает значение -J-1 с вероятностью р и значевне —1с вероятностью q Имеем: *»л+1= м A+i] = > - р+(—1) • ч=р—ч Рассмотрим, далее, случай / = /4-2. В этом случае произведение UJJj равно 4-1. если оба перемещения — на i-м я г-|-2-м шаге — происходят в одном и том же направлении. Это может произойти двумя способами. Или точка х все три шага — г-5, (г-р!)-й и (г-}-2)-5— двигалась в одном и том же направлении, нлв же она дважды изменила за эти три шага свое направление. Найдем вероятность того, что £7/£7/+1 = 1: + Р ( = -1) (l/,„,Ut. , = -1) ) = р» + Найдем тенерь вероятность того, что £7(£7/+2 =— I. Это тоже может произойти двумя способами: или точка изменила свое направление прн пере- ходе от г'-го шага к («4- 1)-му, а при переходе от 1)-го шага к (£-|^2)-му сохранила его. или наоборот. Имеем: PVJ/Utt,= 1) = = -1)(UulUltr.= 1))+ + = 1) <Мм = -1)) = 2pg.
250 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН [ГЛ. 10 Таким образом, величина UiUi+t имеет два возможных аначеиня -4-1 я —1, которые она принимает с вероятностями соответственно p3-f~9s и %pq. Ее математическое ожидание равно: Л«Л+1 = м 1^1+21 = Р1 + Яа — 2№ (р— ?)" Легко доказать по индукция, что для любого расстояния k между ша- гами в ряду Uu ия.Un справедливы формулы: р<№м = >)=/’* + cjp*-V+c1p‘“V+ .... Win— >)-c[/-,»+c’/-V+ .... н, следовательно. Таким образом, корреляционная матрица системы случайных величин Ub l/з...Un будет иметь вид: G>—«)’... (₽—?)“*’ р—я (р— в)”-* 1 ... (р-дУ-> IS-,1 Дисперсия случайной величины Хп будет равна: О |Х„] - £ £>!</,] + 2 J = я+2 2 и>- я)'-'. или же, производя суммирование элементов, стоящих на одном расстоянии от главной диагонали. *«1 Пример 18. Найти асимметрию биномиального распределения Р (X = m) = C^pmqn~m (9=1 — р). (10.3.32) Решение. Известно, что биномиальное распределение (10.3-32) пред- ставляет собой распределение числа появлений в п независимых опытах не- которого события, которое в одном опыте имеет вероятность р. Представим случайную величину X— число появлений событии в п опытах — как сумму п случайных величин; где % Г 1, если в <-м опыте событие появилось, J 1 0, если в t-м опыте событие не появилось. По теореме сложения третьих центральных моментов н[Л-| = 2нИ<1. (10.3.33)
10.3] ПРИМЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ 251 Найдем третий центральный момент случайной величины Xj. Она имеет ряд распоеделения "I1 Я 1 Р Третий центральный момент величины Xi равен: (О — рУ я + (1 — рУ р = — ргя 4- д'р = ря ($ — р). Подставляя в 00.3.33), получим: н[*]= 2 ря(я— Р) = пРЯ(Я~ Р)- Чтобы получить асимметрию, нужно разделить третий центральный мо- мент величины X на куб среднего квадратического отклонения: с. _ ПРЯ (Я — Р) _ Я — Р | УпрЯ ' ("РЯ)' Пример 19. Имеется п положительных, одинаково распределенных независимых случайных величин: X,...Х„. Найт к математическое ожидание случайной величины Z х' 1 -^i + X2-f- ... Ц-Хп Решение. Ясно, что математическое ожидание величины Zt суще- ствует, так как она заключена между нулем и единицей. Кроме тою, легко видеть, что закон распределения системы величии (Х|, Х2.Хл), каков бы он ни был, симметричен относительно своих переменных, т. е. не меняется мри любой их перестановке. Рассмотрим случайные величины: 7 =______________________ у ______________**_________ 4- ^2 4- - 4- хп 2 Х( 4- xs 4" - • 4~ Лп ’ 7 ___________*л п Х| 4- Х24- ... 4- Хп Очевидно, их закон распределения тоже должен обладать свойством сим- метрии, т. е. не меняться при замене одного аргумента любым другим н наоборот. Отсюда, в частности, вытекает, что M[Z{] = M[Z2] = ... = M[Zn], Вместе с тем нам известно, что в сумме случайные величины Z(, Za,..., Zn образуют единицу, следовательно, по теореме сложения математических ожиданий, ^[Z,]4-7W[za]4- ... 4-M[Zrtj = M[i] = i. откуда = ... = At[Z„]=^-.
ГЛАВА 11 ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ 11.1. Метод линеаризации функций случайных аргументов В предыдущей главе мы познакомились с весьма удобным мате- матическим аппаратом теории вероятностей — с аппаратом числовых характеристик. Этот аппарат во многих случаях позволяет находить числовые характеристики функций случайных величин (в первую оче- редь— математическое ожидание и дисперсию) по числовым харак- теристикам аргументов, оставляя совершенно в стороне законы рас- пределения. Такие методы непосредственного определения числовых характеристик применимы главным образом к линейным функциям. На практике очень часто встречаются случаи, когда исследуемая функция случайных величин хотя и не является строго линейной, но практически мало отличается от линейной и при решении задачи может быть приближенно заменена линейной. Это связано с тем, что во многих практических задачах случайные изменения фигурирующих в них величин выступают как незначительные «погрешности», накла- дывающиеся на основную закономерность. Вследствие сравнительной малости этих погрешностей обычно фигурирующие в задаче функции, не будучи линейными во всем диапазоне изменения своих аргументов, оказываются почти линейными в узком диапазоне их случайных изменений. Действительно, из математики известно, что любая непрерывная дифференцируемая функция в достаточно узких пределах изменения аргументов может быть приближенно заменена линейной (линеаризо- вана). Ошибка, возникающая при этом, тем меньше, чем уже границы изменения аргументов и чем ближе функция к линейной. Если область практически возможных значений случайных аргументов настолько мала, что в этой области функция может быть с достаточной для практики точностью линеаризована, то, заменив нелинейную функцию линейной, можно применить к последней тот аппарат числовых харак- теристик. который разработан для линейных функций. Зная числовые характеристики аргументов, можно будет найти числовые характе- ристики функции. Конечно, при этом мы получим лишь приближен-
112] ЛИНЕАРИЗАЦИЯ ФУНКЦИИ ОДНОГО СЛУЧАЙНОГО АРГУМЕНТА 253 ное решение задачи, но в большинстве случаев точного решения и не требуется. При решении практических задач, в которых случайные факторы сказываются в виде незначительных возмущений, налагающихся на основные закономерности, линеаризация почти всегда оказывается возможной именно в силу малости случайных возмущений. Рассмотрим, например, задачу внешней баллистики о движении центра массы снаряда. Дальность полета снаряда X определяется как некоторая функция условий стрельбы — угла бросания 0о, начальной скорости и баллистического коэффициента с. Л=<?(0о. v0. с). (11.1.1) Функция (11.1.1) нелинейна, если рассматривать ее на всем диа- пазоне изменения аргументов. Поэтому, когда речь идет о решении основной задачи внешней баллистики, функция (11.1.1) выступает как нелинейная и никакой линеаризации не подлежит. Однако есть задачи, в которых такие функции линеаризуются; это — задачи, свя- занные с исследованием ошибок или погрешностей. Пусть пас интересует случайная ошибка в дальности полета снаряда X, связанная с наличием ряда случайных факторов: неточностью уста- новки угла 60, колебаниями ствола при выстреле, баллистической неоднородностью снарядов, различными весами зарядов н т. д. Тогда мы зафиксируем определенные номинальные условия стрельбы и будем рассматривать случайные отклонения от этих условий. Диапазон таких случайных изменений, как правило, невелик, и функция ср, не будучи линейной во всей области изменения своих аргументов, может быть линеаризована в малой области их случайных изменений. Метод линеаризации функций, зависящих от случайных аргументов, находит самое широкое применение в различных областях техники. Очень часто, получив решение задачи обычными методами «точных наук», желательно оценить возможные погрешности в этом решении, связанные с влиянием не учтенных прн решении задачи случайных факторов. В этом случае, как правило, задача оценки погрешности успешно решается методом линеаризации, так как случайные изме- нения фигурирующих в задаче величин обычно невелики. Еслп бы это было не так. и случайные изменения аргументов выходили за пределы области примерной линейности функций, следовало бы счи- тать техническое решение неудовлетворительным, так как оно содер- жало бы слишком большой элемент неопределенности. 11.2. Линеаризация функции одного случайного аргумента На практике необходимость в линеаризации функции одного слу- чайного аргумента встречается сравнительно редко: обычно прихо- дится учитывать совокупное влияние нескольких случайных факторов. Однако из методических соображений удобно начать с этого наиболее
254 ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ |ГЛ И простого случая. Пусть имеется случайная величина X и известны ее числовые характеристики: математическое ожидание тх и диспер- сия Dx. Допустим, что практически возможные значения случайной вели- чины X ограничены пределами а, р, т. е. Р(а<Х <₽)«!. Имеется другая случайная величина У, связанная с X функцио- нальной зависимостью: у = ?№'). (11.2.1) причем функция хотя не является линейной, ио мало отличается от линейной на участке (а. р). Требуется найти числовые характеристики величины У— матема- тическое ожидание ту и дисперсию £)у. Рассмотрим кривую У = '?(-<) на участке (а. р) (рис. 11.2.1) и за- меним ее приближенно касательной, проведенной в точке М с абс- циссой тх. Уравнение касательной имеет вид: У = ?(тх)4-ч.'(мх)(х— mJ. (It.2.2) Предположим, что интервал практически возможных значений аргумента (а, р) настолько узок, что в пределах этого интервала кривая и касательная различаются мало, так что участок кривой практически можно заменить участком касательной; короче, на участке (а, р) функция у = <р(х) почти линейна. Тогда случайные величины X н У прибли- женно связаны линейной зависимостью: У — 'f (тх) + у' (mx) (X — mx)t или, обозначая X — тх — Х, Г = <р(тл)4-9/(тх)Х. (11.2.3) Рнс. 11.21, ния числовых характеристик матическое ожидание этой К линейной функции (11.2.3) можно применить известные приемы определе- лннейных функций (см. п° 10.2). Мате- линейной функции найдем, подставляя в ее выражение (11.2.3) математическое ожидание аргумента X. равное нулю. Получим; ту=<?(тх). (11.2.4) ') Функцию ф иа участке (а, Р) предполагаем непрерывной и дифферен- цируемой.
Я1.31 ЛИНЕАРИЗАЦИЯ ФУНКЦИИ НЕСКОЛЬКИХ СЛУЧАЙНЫХ АРГУМЕНТОВ 255 Дисперсия величины Y определится по формуле ^у = ['/(^)12Пл. (11.2.5) Переходя к среднему квадратическому отклонению, имеем: оу = |9'(тх)|ол. (11.2.6) Формулы (11.2.4), (11.2.5), (11.2.6), разумеется, являются прибли- женными, поскольку приближенной является и сама замена нелиней- ной функции линейной. Таким образом, мы решили поставленную задачу и пришли к сле- дующим выводам. Чтобы найти математическое ожидание почти линейной функции, нужно в выражение функции вместо аргумента подставить его мате- матическое ожидание. Чтобы найти дисперсию почти линейной функ- ции, нужно дисперсию аргумента умножить на квадрат производ- ной функции в точке, соответствующей математическому ожиданию арумеита. 11.3. Линеаризация функции нескольких случайных аргументов Имеется система п случайных величин: (*Р *2......*Я) и заданы числовые характеристики системы: математические ожидания ««•> и корреляционная матрица I ^12 • • • Случайная величина Y есть функция аргументов Xv Х2..........Хп: Г = (Р(Х1. х2......Хл). (11.3.1) причем функция не линейна, но мало отличается от линейной в области практически возможных значений всех аргументов (короче, «почти линейная» функция). Требуется приближенно найти числовые характеристики величины F — математическое ожидание т„ н дис- персию Для решения вадачи подвергнем линеаризации функцию У = 'f(*i. ......xt). (11.3.2)
256 ЛИНЕАРИЗАЦИЯ ФУНКЦИЯ 1ГЛ. II В данном случае нет смысла пользоваться геометрической интер- претацией, так как аа пределами трехмерного пространства она уже не обладает преимуществами наглядности. Однако качественная сто- рона вопроса остается совершенно той же. что и в предыдущем п’ Расснотрнн функцию у=9(xt. Х2...хя) в достаточно малой окрестности точки mXi. тХа. .... т**. Так как функция в этой окре- стности почти линейна, ее можно приближенно заменить линейной. Это равносильно тому, чтобы в разложении функции в ряд Тейлора около точки (mXl. тЯ1. .... тХ/^ сохранить только члены первого порядка, а все высшие отбросить: У=т(*1. хг.....х*>~ т„г....2?х£(тлГ т*г...........т'Э(ж' — "Ц)- Значит, и зависимость (11.3.1) между случайными величинами ножно приближенно заменить линейной зависимостью: Y = mv .... m*„)+ + ЕтхДоЦ. .........т^(Х‘~ПжУ U*-3-3) Введем для краткости обозначение: и.,....(Д)т. Учитывая, что Х{—тх= Xt. перепишем формулу (11.3.3) в виде: y = T(mv т,2. .... -М+£(£-)/<- (4.3.4) К линейной функции (11.3.4) применим способы определения чи- словых характеристик линейных функций, выведенные в п° 10.2. Имея в виду, что центрированные аргументы (X,. Х2. .... Х„) имеют математические ожидания, равные нулю, и ту же корреляционною матрицу j|Kv||. получин: = тх*. .... mXjJ. (11.3.5)
H3J ЛИНЕАРИЗАЦИЯ ФУНКЦИИ НЕСКОЛЬКИХ СЛУЧАЙНЫХ АРГУМЕНТОВ 257 Переходя в последней формуле от дисперсий к средним квадра- тическим отклонениям, получим: где rit — коэффициент корреляции величин Xr Xf. Особенно простой вид принимает формула (11.3.7). когда вели- чины Л’р Х2, .... Хп не коррелированы. т, е. rtj = 0 при I #= /. В этом случае о'-3-8) 1=1 Формулы типа (11.3.7) и (11.3.8) находят широкое применение в различных прикладных вопросах: при исследовании ошибок раз- ного вида приборов и механизмов, а также при v анализе точности стрельбы и бомбометания. —— Пример I. Относ бомбы X (рис. 11.3.1) выра- | 'к кается приближенной аналитической формулой: । \ X = v„ (1—1.8 10'5сН), (11.3.9) | \ где v0 — скорость самолета (лг/сек),/7 — высота сбра- ^1 \ сывания (л), с — баллистический коэффициент. | \ Высота Н определяется по высотомеру, скорость । I самолета г0 — по указателю скорости, баллистиче- ! I ский коэффициент с принимается его номинальным I 1 значением с =1,00. Высотомер показывает 4000 м, | I указатель скорости 150 м}сек. Показания высотомера i 1 характеризуются систематической ошибкой-|-50 м . | и средним квадратическим отклонением e^ = 40 лс, —А ————•— показания указателя скорости—систематической ошибкой — 2 м!сек и средним квадратическим откло- Рнс- 11.3.1. неиием 1 MjceK', разброс возможных значений бал- листического коэффициента с, обусловленный неточностью изготовления бомбы, характеризуется средним квадратическим отклонением ас = 0,05. Ошибки приборов независимы между собой. Найти систематическую ошибку и среднее квадратическое отклонение точки падения бомбы вследствие неточности в определении параметров /Д v0 и с- Определить, какой из этих факторов оказывает наибольшее влияние па разброс точки падения бомбы. Решение. Величины Н, v0 н с представляют собой некоррелирован- ные случайные величины с числовыми характеристиками: <71^ = 3950 м; п^—40 mVa = 152 м!сек-. = 1 м/сек, тс = 1,00; сс = 0,05. Так как диапазон возможных изменений случайных аргументов сравни- тельно невелик, для решения задачи можно применить метод линеаризации. 9 Теория вероятностей
258 ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ [ГЛ и Подставляя в формулу (11.3.9) вместо величин Н, v0 и с их математические ожидания, найдем математическое ожидание величины X: т г — 4007 (ж). Для сравнения вычислим номинальное значение: = 150 j/^- (1 - 1.8 10‘5-1 • 4000) = 3975 (ж). Разность между математическим ожиданием и номинальным значением и представляет собой систематическую ошибку точки падения: Дх = тх — Лном = 4007 — 3975 = 32 (ж). Для определения дисперсии величины X вычислим частные производные; — - (1 — 1,8 IO-SC/Z) — <j„ 1/— • 1,8 • 10'6С, 6Н VZHg Г g ^=/¥(,-''8io'Sch)' и подставим в эти выражения вместо каждого аргумента его математиче- ское ожидание: (^)„=мг* (£k=26* (£)я—3<л- По формуле (11.3.8) вычислим среднее квадратическое отклонение вели- чины X: о* = 0.4292 402 4- 26,42 • I2 + 3072 • 0»052 = 294,4 697,0 + 235,5 — 1126,9, Сравнивая слагаемые, образующие а2, приходим к заключению, что наи- большее из них (697,0) обусловлено наличием ошибок в скорости о0; следо- вательно, в данных условиях из рассмотренных случайных факторов, обуслов- ливающих разброс точки падения бомбы, наиболее существенной является ошибка указателя скорости. Пример 2. Абсцисса точки попадания (в метрах) прн стрельбе по са- молету выражается формулой Л’ = Ли4-1,8о£>4-А’с, (11.3.10) где Ли — ошибка наводки (л), w — угловая скорость цели {рад!сек), D — даль- ность стрельбы (ж), Х(, — ошибка, связанная с баллистикой снаряда (м). Величины Хц, <», D, Х^ представляют собой случайные величины с ма- тематическими ожиданиями: тХи = 0; = 0,1; тх — 1000; тХ() ~ 0 м средними квадратическими отклонениями: сХ(К = 4; aw = 0.005; вх = 50; сГ(5 = 3.
11.41 УТОЧНЕНИЕ РЕЗУЛЬТАТОВ 259 Нормированная корреляционная матрица системы (Хн, <>, D, Х$) (т. е. матрица, составленная из коэффициентов корреляции) имеет вид: 1 0,5 0.3 0{ 1 Требуется найти математическое ожидание и среднее квадратическое отклонение величины X. Решение. Подставляя в формулу (11.3.10) математические ожидания аргументов, имеем: тх = 1,8 • 0,1 1000 = 180 (ж). Для определения среднего квадратического отклонения величины X най- дем частные производные: =1; = 1.8тя= 1800; \ дХн}т \ оы )т = 1,8/пш = 0,18; =1. \dD)m ш \ дХ6 )т Применяя формулу (11.3.7), имеем: = (1 - 4)2 + (1800 0.005)2 + (0,18 • 50)2 + (1 • З)2 4- 2 1 1800 • 0,5 • 4 0,005 4- + 2* 1.0,18-0,3-4-504-2-1800 - 0,18 - 0,4 0,005 50 = = 164-814-81 4-94-364-21,6 4-64,8=309,4, откуда и 17,6 (л). 11.4. Уточнение результатов, полученных методом линеаризации В некоторых задачах практики возникает сомнение в применимости метода линеаризации в связи с тем. что диапазон изменений случай- ных аргументов не настолько мал, чтобы в его пределах функция могла быть с достаточной точностью линеаризована. В этих случаях для проверки применимости метода линеаризации и для уточнения полученных результатов может быть применен ме- тод, основанный на сохранении в разложении функции не только линейных членов, но и некоторый последующих членов более высо- ких порядков и оценке погрешностей, связанных с этими членами. Для того чтобы пояснить этот метод, рассмотрим сначала наибо- лее простой случай функции одного случайного аргумента. Случай- ная величина Y есть функция случайного аргумента X: r = -fW. (11.4.1) причем функция f сравнительно мало отличается от линейной на участке практически возможных значений аргумента X, ио все же
260 ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ ГГЛ II отличается настолько, что возникает сомнение в применимости ме- тода линеаризации. Для проверки этого обстоятельства применим более точный метод, а именно: разложим функцию ср в ряд Тей- лора в окрестности точки тх и сохраним в разложении первые три члена: у — v (х) » ср (mJ 4- ср' (mJ (х — тJ 4- у ср" (mJ (х — тх?. (11.4.2) Та же формула будет, очевидно, приближенно связывать случайные величины Y и X: Y = <t (тх) + ср' (mJ (X — m J +1 ср" (mJ (Л — га J2 = = ср (m J4- ср' (mJ X + ‘- ср" (mJ Л2. (11.4.3) Пользуясь выражением (11.4.3), найдем математическое ожидание и дисперсию величины Y. Применяя теоремы о числовых характери- стиках. имеем: my = <f (тх)4- j ср"(mJМ]Х2] = ср(тх) 4- ~ср"(mJDx. (11.44) По формуле (11.4.4) можно найти уточненное значение матема- тического ожидания и сравиить его с тем значением ср(тх), которое получается методом линеаризации; поправкой, учитывающей нелиней- ность функции, является второй член формулы (11.4.4). Определяя дисперсию правой и левой части формулы (11.4.3), имеем: Dy = ]<(' (mx)pDx J- 1 [<p"(mj[2 О[*214- 4-ср'(mJ < (mJ ft-(Л. X2[. (11.4.5) где K[X. Л2! — корреляционный момент величин X. X2. Выразим входящие в формулу (11.4.5) величины через централь- ные моменты величины X: О [Л2] = М [Л<[ — (М (Л2])2 = |с„ [Л] — Dx. К]Х. Х2] — М]Х\Х2 — M[X2J)[ = p3m. Окончательно имеем; D, = 1<р' (mJF Dx 4-1 [ср" (mjl2 (и, [Л] — DJ) 4- 4-ср7 (mJ ср" (mJ цз [ Д']. (11.4.6) Формула (11.4.6) дает уточненное значение дисперсии по сравне- нию с методом линеаризации; ее второй и третий члены представ-
It.4] УТОЧНЕНИЕ РЕЗУЛЬТАТОВ 261 ляют собой поправку на нелинейность функции. В формулу, кроме дисперсии аргумента входят еще третий и четвертый централь- ные моменты р3 [Л-], р.4 [JfJ. Если эти моменты известны, то по- правка к дисперсии может быть найдена непосредственно по фор- муле (11.4.6). Однако зачастую нет необходимости в ее точном определении; достаточно лишь знать ее порядок. На практике часто встречаются случайные величины, распределенные приблизительно по нормальному закону. Для случайной величины, подчиненной нормаль- ному закону, |i3[XJ = 0; |i4JA'J = 3oi = 3Dj. (11.4.7) и формула (11.4.6) принимает вид: D, = [<?' (mjl! D,+1 [<р" (mJ ]! (11.4.8) Формулой (11.4.8) можно пользоваться для приближенной оценки погрешности метода линеаризации а случае, когда аргумент распре- делен по закону, близкому к нормальному. Совершенно аналогичный метод может быть применен по отно- шению к функции нескольких случайных аргументов: Г = ¥(Л, Х2........Х„). (11.4.9) Разлагая функцию у=<р(х,. х2. .... х„) в ряд Тейлора в окрестности точки .... тх и сохраняя в разложении члены не выше второго порядка, имеем приближенно: K = <f(mv mXj......—«Ч) + 1=1 \ j<j \ t l I m или, вводя центрированные величины, 7 = <р(тЛ1. тх,....+ + где индекс т по-прежнему обозначает, что в выражение частной производной вместо аргументов Xt подставлены их математические ожидания tn* .
262 ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ (гл. it Применяя к формуле (11.4.10) операцию математического ожида- ния, имеем: ту = Т (т^- тхл- • •. тх^ + / = 1 \ чт icj где Хц— корреляционный момент величин Х[г X/. В наиболее важном для практики случае, когда аргументы Ху Х2. .... Х„ некоррелированны, формула (11.4.11) принимает вид: п = m,t............V, (£|) Dj.. (11.4.12) Второй член формулы (11.4.12) представляет собой поправку на нелинейность функции. Перейдем к определению дисперсии величины У. Чтобы получить выражение дисперсии в наиболее простом виде, предположим, что величины Хр Х2. .... Хп не только некоррелированны, но и неза- висимы. Определяя дисперсию правой и левой части (11.4.10) и поль- зуясь теоремой о дисперсии произведения (см. п° 10.2), получим: Для величин, распределенных по закону, близкому к нормальному, можно воспользоваться формулой (11.4.7) и преобразовать выраже- ние (11.4.13) к виду: + 01-4.14) Последние два члена в выражении (11.4.14) представляют собой «поправку на нелинейность функции» и могут служить для оценки точности метода линеаризации при вычислении дисперсии.
ГЛАВА 12 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ 12.1. Закон распределения монотонной функции одного случайного аргумента В предыдущих главах мы познакомились с методами определения числовых характеристик функций случайных величии; главное удоб- ство этих методов в том, что оии не требуют нахождения законов распределения функций. Однако иногда возникает необходимость в определении не только числовых характеристик, но и законов рас- пределения функций. Начнем с рассмотрения наиболее простой задачи, относящейся к этому классу: задачи о законе распределения функции одного случайного аргумента. Так как для практики наибольшее значение имеют непрерывные случайные величины, будем решать задачу именно для них. Имеется непрерывная случайная величина X С плотностью рас- пределения f (х). Другая случайная величина У связана с нею функ- циональной зависимостью: F = <PW). Требуется найти плотность распределения величины Y, Рассмотрим участок оси абсцисс (а. Ь), на котором лежат все возможные значения величины X, т. е. Р(а < X <Ь)=\. В частном случае, когда область возможных значений X ничем ис ограничена, а= — оо; £ = -|-оо. Способ решения поставленной задачи зависит от поведения функ- ции ср на участке (а. ЬУ возрастает ли опа иа этом участке или убывает, или колеблется. 1) Функцию <р предполагаем непрерывной и дифференцируемой.
264 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЯ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 12 В данном п° мы рассмотрим случай, когда функция у = <р(х) на участке (а. Ь) монотонна *). При этом отдельно проанализируем два случая: монотонного возрастания и монотонного убывания функции. 1. Функция у = ср(х) на участке (с, Ь) монотонно возрастает (рис. 12.1.1). Когда величина X Рис. 12.1.1. принимает различные значения на участке (а, Ь). случайная точка (X. К) перемещается только по кривой у=<р(х); ордината этой случайной точки полностью опре- деляется ее абсциссой. Обозначим g (у) плотность распределения величины У. Для того чтобы определить g(y), най- дем сначала функцию распреде- ления величины Y: О(у) = Р(У<у). Проведем прямую АВ, парал- лельную оси абсцисс на расстоя- нии у от нее (рис. 12.1.1). Чтобы выполнялось условие У < у, случайная точка (X. У) должна попасть на тот участок кривой, который лежит ниже прямой АВ; для этого необходимо и достаточно, чтобы слу- чайная величина X попала иа участок оси абсцисс от а до х, где х—абсцисса точки пересечения кривой y = <f(x) и прямой АВ. Следовательно. O(y) = P(Y<y) = P(a<X<x) = f f[x)dx. Верхний предел интеграла х можно выразить через у: * = Ф(У). где ф— функция, обратная функции ср. Тогда Ф(у) O(y) = J f(x)dx. (12.1.1) а Дифференцируя интеграл (12.1.1) по переменной у, входящей в верх- ний предел, получим: g (У) = О' (у)=/ (ф (у)) ф' (у)- (12.1.2) *) Случай немонотонной функции будет рассмотрен в п° 12.3.
12.1] ЗАКОН РАСПРЕД. МОНОТОННОЙ ФУНКЦИИ ОДНОГО АРГУМЕНТА 265 2. Функция у—«р(л) на участке (а, Ь) монотонно убывает (рис. 12.1.2). В этом случае ъ ъ О(у) = Р(Г<у) = Р(х<Л<*) = f/(x)dx = f f(x)dx. * Ф (У) откуда g 6) = О' 60 = — /(ф GO) ф' (у). (12.1.3) Сравнивая формулы (12.1.2) и (12.1.3), замечаем, что они могут быть объединены в одну: «’(У)=/(ф6’))|Ф'60|. (12.1.4) Действительно, когда 9 возрастает, ее производная (а значит, и ф') положительна. При убывающей функции 9 производная ф' отрица- тельна, но зато перед ней в формуле (12.1.3) стоит минус. Следо- вательно, формула (12.1.4), в которой производная берется по модулю, верна в обоих случаях» Таким образом, задача о законе рас- V пределения монотонной функции решена. Пример. Случайная величина X подчинена закону Коши с плотностью 4 распределения: /(Л)= *(Т+х!) • У Величина У связана с X зависимостью Г==1 — X3. Найти плотность распределения ве- Рис- лнчины К. Решение. Так как функция у=1—л3 монотонна на участке (—со, -f-сю), можно применить формулу (12.1.4). Решение задачи оформим в виде двух столбцов: в левом будут помещены обозначения функций, при- нятые в общем решении задачи, в правом — конкретные функции, соответ- ствующие данному примеру: /(*) У = ¥ (*) X ' ф (у) Ф' (у) IФ' (У)1 £(у)=/(ф(у))1ф'(у)1 I «(1+х«) у = 1 - л3 л=^1=} — 1 3^(1-У)2 1 ___________1_________ Зг. (1 + ^(ПГу)1) У(Т^7)’ ’
266 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ (ГЛ. 12 12.2. Закон распределения линейной функции от аргумента, подчиненного нормальному закону Пусть случайная величина X подчинена нормальному закону с плотностью: (Х№ж)1 /(JC)=—j/gp 2’' (12.2.1) а случайная величина Y связана с нею линейной функциональной за- висимостью: (12.2.2) 1де а и Ь—неслучайные коэффициенты. Требуется найти закон распределения величины Y. Оформим решение в виде двух столбцов, аналогично примеру предыдущего п°: (х—«)* /(*) у = Ф(х) * = Ф(У) . _ У * Ф'(У) 1Ф'(У)| й'<у) = /(ф(у))|ф'(у)1 Преобразуя выражение g’(y). g(y)= | а | ох у 2ti имеем: а это есть не что иное, как нормальный закон с параметрами: оу=|с|ах. j (12.2.3) Если перейти от средних квадратических отклонений к пропор- циональным им вероятным отклонениям, получим: £,==|а|£х. (12.2.4) 12 3] ЗАКОН РАСПРЕД. НЕМОНОТОННОЙ ФУНКЦИИ ОДНОГО АРГУМЕНТА 267 Таким образом мы убедились, что линейная функция от аргу- мента, подчиненного нормальному закону, также подчинена нормальному закону. Чтобы найти центр рассеивания этого закона, нужно в выражение линейной функции вместо аргумента подставить его центр рассеивания. Чтобы найти среднее квадратическое откло- нение этого закона, нужно среднее квадратическое отклонение аргу- мента умножить на модуль коэффициента при аргументе в выражении линейной функции. То же правило справедливо и для вероятных отклонений. 12.3. Закон распределения немонотонной функции одного случайного аргумента Имеется непрерывная случайная величина X с плотностью распре- деления f (х); другая величина Y связана с X функциональной за- висимостью: Y = ?(*), причем функция у = <р(х) на участке (с, Ь) возможных значений аргумента не монотонна (рис. 12.3.1). 2*1 о д& д/w дв& Рис. 12.3.1. Найдем функцию распределения G (у) величины Y. Для этого снова проведем прямую АВ, параллельную оси абсцисс, на расстоянии у от нее и выделим те участки кривой у = ср(х), на которых выпол- няется условие Y < у. Пусть этим участкам соответствуют участки оси абсцисс: Aj (у), Д2 (у), ... Событие Y < у равносильно попаданию случайной величины X на один нз участков АДу), ••• —безразлично, на какой именно. Поэтому о (у) = P(Y < у) = (Хс Д, (у)) + (ХсД, (у)) + ...) = = \]р(ХсД,(у)) = У f/(x)dx. I I (У)
268 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 19 Таким образом, для функции распределения величины К = ср(Х) имеем формулу: О(у) = У f/(x)dx. (12.3.1) * ^(у) Границы интервалов ДДу) зависят от у и при заданном конкрет- ном виде функции у = <р(х) могут быть выражены как явные функ- ции у. Дифференцируя О (у) по величине у, входящей в пределы интегралов, получим плотность распределения величины Y: g (у) = О' (у). (12.3.2) Пример. Величина X подчи- нена закону равномерной плотности на участке от —— до Рис. 12.32. /(*)= 1 . . я — при I х I < ; О при | х | > Найти закон распределения величины Г=созХ. Решение. Строим график функции у = cos х (рис. 12.3.2). Очевидно. а = — у. 6= и в интервале (а, Ь) функция у = cosх немонотонна. Применяя формулу (12.3.1), имеем: 2 С(у)= f J(x)dx+ f f(x)dx. Выразим пределы х, и xs через у: хj == — arccos у; хл = arccos у. Отсюда ж — агссов у 2 С(у)= J f(x)dx+ J f(x)dx. (12.3.3) Я 1ГССОЗ у “2 Чтобы найти плотность g(y), не будем вычислять интегралы в фор- муле (12.3.3), а непосредственно продифференцируем вто выражение по пере- менной у, входящей в пределы интегралов: g (У) = О' (У) = f (— arccos у) - 1 4~/(агссов у) -- 1 . Г1—у2 yl — у2
12.4] ЗАКОН РАСПРЕДЕЛЕНИЯ ФУНКЦИИ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН 269 Имея в виду, что / (л) = —, получим; (12.3.4) Указывая для Y закон распределения (12.3.4), он действителен лишь в пределах от 0 до 1, т. е. в тех пределах, в которых меняете.-. Y — cos X при аргументе X, заключенном между — Вне этих пределов плотность g (у) нулю. График функции g(y) дан на рис. Прн у= I кривая й’Су) имеет ветвь, уходящую на бесконечность. И 2- равна 12.3.3. 12.4. Заком распределения функции двух случайных величин следует оговорить, что Рис. 12.3.3. Задача определения закона распределения функции нескольких случайных аргументов значительно сложнее аналогичной задачи для функций одного аргумента. Здесь мы изложим общий метод Рис. 12.4.1. в случае одного аргумента. Функция нс кривой, а поверхностью, (рис. 12.- Найдем функцию распределения ве решения этой задачи для наиболее простого случая функции двух аргументов. Имеется система двух непрерывных случайных ве- личин (Л-, У) с плотностью распределения f (х, у). Слу- чайная величина Z связана С X и Y функциональной зависимостью: Z = cp(X, У). Требуется найти закон распределения величины Z. Для решения задачи вос- пользуемся геометрической интерпретацией, аналогичной той, которую мы применяли 2 = ср(х. у) изобразится уже 1.1). личины Z: O(z) = P(Z < z) = P(<p(.¥. Г)<г). (12.4.1)
270 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИИ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 13 Проведем плоскость Q, параллельную плоскости хОу, на расстоя- нии z от иее. Эта плоскость пересечет поверхность ^ = <р(х, у) по некоторой кривой К ’)- Спроектируем кривую К на плоскость хОу. Эта проекция, уравнение которой <р(х. y) = z, разделит плоскость хОу на две области; для одной из них высота поверхности над пло- скостью хОу будет меньше, а для другой — больше z. Обозначим D ту область, для которой эта высота меньше z. Чтобы выполнялось неравенство (12.4.1), случайная точка (X, F), очевидно, должна по- пасть в область D\ следовательно, 0(^) = Р((Х, E)g£)) = f f f(x, y)dxdy. (12.4.2) (D) В выражение (12.4.2) величина z входит неявно, через пределы интегрирования. Дифференцируя О (z) по Z, получим плотность распределения величины Z: g (*) = О' (я). Зная конкретный вид функции z = ср (х. у), можно выразить пре- делы интегрирования через z и написать выражение g(z) в явном виде. Для того чтобы найти закон распределения функции двух аргу- ментов, необходимости Рис 12.4.2, каждый раз строить поверхность £!=<p(x, у), подобно тому, как это сделано на рис. 12.4.1, и пе- ресекать ее плоскостью, парал- лельной xGy. На практике доста- точно построить на плоскости хОу кривую, уравнение которой г = <р(х, у), отдать себе отчет в том, по какую сторону этой — кривой Z < z, а по какую Z> z. и интегрировать по области D. для которой Z < z. Пример. Система величин (X, К) подчинена закону распределения с плотностью / (х, у). Величина Z ессъ произведение величин X, Y; Z=XY. Найти плотность распределения ве- личины Z. Решение. Зададимся некоторым значением z и построим на пло- ское! и xGy кривую, уравнение которой ху = г (рис. 12.4.2). Это — гипербола, асимптоты которой совпадают с осями координат. Область D на рис. 12.4.2 заштрихована. *) На нашем чертеже кривая К замкнута; вообще она может быть и не- замкнутой, а может состоять н из нескольких ветвей.
125] ЗАКОН РАСПРЕДЕЛЕНИЯ СУММЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН 271 Функция распределения величины Z имеет вид: £ О(г) = f J/ (х, у) dx dy = J J / (ж, у) dx dy + f J f (x, y) dx dy. (D) “°0 Л 0 -oo X Дифференцируя это выражение по z, имеем: ) I» гЮ = - /у/(*. y)dx+f г/(л т)‘,л (1243) 12.5. Закон распределения суммы двух случайных величии. Композиция законов распределения Воспользуемся изложенным выше общим методом для решения одной важной для практики частной задачи, а именно для нахожде-* ния закона распределения суммы двух случайных величин. Имеется система двух случай- ных величин (X, У) с плотностью распределения f(x, у). Рассмот- рим сумму случайных величин X и Y: Z = X-^-Y. и найдем закон распределения величины Z. Для этого построим иа плоскости хОу линию, уравнение которой х-|-у = z (рис. 12.5.1). Это — прямая, отсекающая на осях отрезки, равные z. Прямая x4-y = z делит плоскость хОу на две части; правее и выше ее A'-f-E > z\ левее и ниже X f- Y < z. Область D в данном случае скости хОу, заштрихованная на рис, (12.4.2) имеем: Рнс. 12.5.1. -левая нижняя часть пло- 12.5.1. Согласно формуле °(г) = J J f(x. y)dxdjt=* (D) \ со z-Х ео Г x-jr = J J = J j / /(* —ОО —оо — оо 1
272 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИИ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 12 Дифференцируя это выражение по переменной Z, входящей в верх- ний предел внутреннего интеграла, получим: «'(«)= f f(x. z — x)dx. (12.5.1) —СО Это — общая формула для плотности распределения суммы двух случайных величин. Из соображений симметричности задачи относительно X и Y можно иаписать другой вариант той же формулы: со £(*) = / /(г — У- y)dy. (12.5.2) —аз который равносилен первому и может применяться вместо него. Особое практическое значение имеет случай, когда складываемые случайные величины (X, У) независимы. Тогда говорят о компози- ции законов распределения. Произвести композицию двух законов распределения это значит найти закон распределения суммы двух независимых случайных вели- чин, подчиненных этим законам распределения. Выведем формулу для композиции двух законов распределения. Имеются две независимые случайные величины X и Y, подчиненные соответственно законам распределения Д (х) и /2(у); требуется про- извести композицию этих законов, т. е. найти плотность распределе- ния величины Z = X-^-Y. Так как величины X и Y независимы, то /(*• У) = Л (*)/,(?). и формулы (12.5.1) и (12.5.2) принимают вид: «’(«) = f /1(х)/2(х— X)dx, (12.5.3) —СО оо £(*) = J /1(г-у)/2(у)^. (12.5.4) —СО Для обозначения композиции законов распределения часто при- меняют символическую запись: где * — символ композиции.
12 5] ЗАКОН РАСПРЕДЕЛЕНИЯ СУММЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН 273 Формулы (12.5.3) н (12.5.4) для композиции законов распределе- ния удобны только тогда, когда законы распределения Л(х) и /2(у) (или, по крайней мере, один из них) заданы одной формулой на всем диапазоне значений аргумента (от —со до со). Если же оба закона заданы на различных участках различными уравнениями (на- пример, два закона равномерной плотности), то удобнее пользоваться непосредственно общим методом, изложенным в п° 12.4, т. е. вы- числить функцию распределения О (г) величины Z = Y и про- дифференцировать эту функцию. Пример I. Составить композицию нормального закона: и закона равномерной плотности: ПРИ “<><₽• Решение. Применим формулу композиции законов распределения в виде (12.5.4): К-у-гяУ ₽ 2"’ dy = J-L- -4=е 2°’ dv. (12-5-5) ’ V — eJ о/2г. Подынтегральная функция в выражении (12.5.5) есть не что иное, как нор- мальны Л закон с центром рассеивания z— т и средним квадратическим отклонением а, а интеграл в выражении (12.5.5) есть вероятность попадания случайной величины, подчиненной этому закону, на участок от а до fa сле- довательно. Графики законов /, (л), /а(у) и g (z) при а = — 2, ₽ =2, т =0, а = 1 приведены на рнс. 12.5.2.
274 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИИ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 12 Пример 2. Соста вить композицию двух законов равномерной плот- ности, заданных на одном и том же участке (0, 1): /1 (х) — 1 гри 0 < х < 1, /я (У) = 1 При 0 < у < 1. Решение. Так как законы /, (х) и /2 (у) заданы только на опреде- ленных участках осей Ох н Оу, для решения этой задачи удобнее восполь- зоваться не формулами (12.5.3) н (12.5.4), а общим методом, изложенным в я° 12.4, н найти функцию распределения G (г) величины Z — X -р К Рассмотрим случайную точку (X, К) на плоскости хОу. Область ее воз- можных положений — квадрат R со стороной, равной 1 (рис. 12.5.3). Имеем: G (г) = f f f{x, y)dxdy = J J dxdy, (D) (D) где область D — часть квадрата R, лежащая левее н ниже прямой х-|-у Очевидно, СЫ=5„ где SD — площадь области D. Составим выражение для имях г, пользуясь рис. 12.5.3 площади области D при различных значе- и 12.5.4: 1) при г < О G (г) = 0; 2) при 0 < Z < I О (г) = 3) при 1 <г<2 С(г) = 1 — 4) при г > 2 О (г) — 1. Дифференцируя эти выражения, получим: 1) при г <0 g (г) = 0; 2) при 0 < г < 1 g (?) — *; Рис. 12.5.5. 3) при 1 < Z < 2 g (х) = 2 — г, 4) прн z > 2 g (г) = 0. График закона распределения g(z) дан на рис. 12.5.5. Такой закон носит название «закона Симпсона» или «закона треугольника».
КОМПОЗИЦИЯ НОРМАЛЬНЫХ ЗАКОНОВ 275 12.6. Композиция нормальных законов Рассмотрим две независимые случайные величины Л и Y, подчи- ненные нормальным законам: (х-тхУ <12'6 |> Л(у)=^йе 4 • (12-6-2) Требуется произвести композицию этих законов, т. е. найти закон распределения величины: Z = XH-r. Применим общую формулу (12.5.3) для композиции законов рас- пределения: gtf> = f fi(x'>fi(t — x')dx = „ (‘-"J 1 С 2"2 = 2SSa J ‘ ’ dx. (12.6.3) —03 Если раскрыть скобки в показателе степени подынтегральной функции н привести подобные члены, получим: 03 *<*>=2isk f e-^^dX. —со где л-1±Н. ~2 Ы 1 (г~ту)2 2.J Подставляя эти выражения в уже встречавшуюся нам формулу -Аг'±2ДЛ-С (12.6.4)
276 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ (ГЛ. 13 после преобразований получим: _ [' (УМ’ g(*)=- ‘ , 2(’’Ч) . (12.6.5) V4+»5 V2" а это есть не что иное, как нормальный закон с центром рассеи- вания mz — тх -{- (12,6.6) и средним квадратическим отклонением <126 7) К тому же выводу можно прийти значительно проще с помощью следующих качественных рассуждений. Не раскрывая скобок и не производя преобразований в подынте- гральной функции (12.6.3), сразу прнходнм к выводу, что показатель степени есть квадратный трехчлен относительно х вида (х) — — Ах2 -|- 2Вх — С, где в коэффициент А величина z не входит совсем, в коэффициент В входит в первой степени, а в коэффициент С — в квадрате. Имея это в виду и применяя формулу (12.6.4), приходим к заключению, что g(z) есть показательная функция, показатель степени которой — квадратный трехчлен относительно г, а плотность распределения такого вида соответствует нормальному закону. Таким образом, мы приходим к чисто качественному выводу: закон распределения вели- чины Z должен быть нормальным. Чтобы найти параметры этого закона — тх и — воспользуемся теоремой сложения математических ожиданий и теоремой сложения дисперсий. По теореме сложения математических ожиданий тг = тх-±-ту. (12.6.8) По теореме сложения дисперсий = + ИЛИ = (12.6.9) откуда следует формула (12,6.7). Переходя от средних квадратических отклонений к пропорцио- нальным им вероятным отклонениям, получим: £ = £;+£>• (12.6.10)
12.6] КОМПОЗИЦИЯ НОРМАЛЬНЫХ ЗАКОНОВ 277 Таким образом, мы пришли к следующему правилу: при компо- зиции нормальных законов получается снова нормальный за- кон. причем математические ожидания и дисперсии {или квад- раты вероятных отклонений) суммируются. Правило композиции нормальных законов может быть обобщено на случай произвольного числа независимых случайных величин. Если имеется п независимых случайных величин: Xt......Х„. подчиненных нормальным законам с центрами рассеивания т*,. тХз....mX/j и средними квадратическими отклонениями От , ах.....ах , то величина п z= S -’G /*1 также подчинена нормальному закону с параметрами л т, = 2тХ1. (12.6.II) п (12.6.12) Вместо формулы (12.6.12) можно применять равносильную ей формулу: п (12.6.13) Если системв случайных величин (X, К) распределена по нор- мальному закону, ио величины X, Y зависимы, то нетрудно доказать, так же как раньше, исходя из общей формулы (12.5.1), что закон распределения величины Z = X-bY есть тоже нормальный закон. Центры рассеивания по-прежнему скла- дываются алгебраически, но для средних квадратических отклонений правило становится более сложным: al = al + ay + 2rVf (12.6.14) где г — коэффициент корреляции величин X и У.
278 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ АРГУМЕНТОВ [ГЛ. 19 При сложении нескольких зависимых случайных величин, подчи- ненных в своей совокупности нормальному закону, закон распреде- ления суммы также оказывается нормальным с параметрами (12.6.15) i=i » о® = 2 02 -4-2 2 rl/ajc.ax (12.6.16) < = 1 *1 1<J ' 1 или в вероятных отклонениях Й=2Й,+22Г"В’Аг (12.6.17) «=1 * KJ где r(j—коэффициент корреляции величин Xj, а суммирование распространяется на все различные попарные комбинации величин Xv Х2......Хп. Мы убедились в весьма важном свойстве нормального закона: при композиции нормальных законов получается снова нормальный закон. Это — так называемое «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов этого типа получается снова закон того же типа *). Выше мы показали, что нормальный закон является устойчивым. Свойств ом устойчивости обладают весьма немногие законы распределения. В предыдущем пэ (пример 2) мы убедились, что. например, закон равномерной плот- ности неустойчив: при композиции двух законов равномерной плот- ности на участках от 0 до 1 мы ^(- получили закон Симпсона. ! Устойчивость нормального зако- на—одно из существенных условий д. _ //zzfyx его ШИРОКОГО распространения на fz/zz/MX. практике. Однако свойством устой- чивости, кроме нормального, обла- дают и некоторые другие законы ---------------- распределения. Особенностью нор- мального закона является то, что Рис. 12.5.1.----при композиции достаточно боль- шого числа практически произволь- ных законов распределения суммарный закон оказывается сколь угодно близок к нормальному вне зависимости от того, каковы были законы распределения слагаемых. Это можно проиллюстрировать, например, составляя композицию трех законов равномерной плотности на уча- стках от 0 до I. Получающийся при этом закон распределения g{z} изображен на рис. 12.6.1. Как видно из чертежа, график функции g(z) весьма напоминает график нормального закона. ') Под «законами одного и того же типа» мы подразумеваем законы, раз- личающиеся только масштабами по осям и началом отсчета по оси абсцисс.
ФУНКЦИИ ОТ НОРМАЛЬНО РАСПРЕДЕЛЕННЫХ АРГУМЕНТОВ 279 12.7. Линейные функции от нормально распределенных аргументов Дана система случайных величин (ХР Хг........Хл). подчиненная нормальному закону распределения (или, короче, «распределенная нормально»); случайная величина У представляет собой линейную функцию этих величин: 1=1 (12.7.1) Требуется найти закон распределения величины У. Нетрудно убедиться, что это нормальный закон. Действительно, величина У представляет собой сумму линейных функций, каждая из которых зависит от одного нормально распределенного аргумента X, а выше было доказано, что такая линейная функция также распре- делена нормально. Складывая несколько нормально распределенных случайных величин, мы снова получим величину, распределенную нормально. Остается найти параметры величины V — центр рассеивания т и среднее квадратическое отклонение ау. Применяя теоремы о мате- матическом ожидании и дисперсии линейной функции, получим: и, = 2с1гаХ( + *. (12.7.2) Л °; = S + 2 (12.7.3) где r{j—коэффициент корреляции величин X,. Ху. В случае, когда величины (X,, Х2........Х„) некоррелированы (а значит, при нормальном законе, и независимы), формула (12.7.3) принимает вид: (12.7.4) у 1=1 I Средние квадратические отклонения в формулах (12.7.3) и (12.7.4) могут быть заменены пропорциональными им вероятными отклонениями. На практике часто встречается случай, когда законы распределе- ния случайных величин ХР Х2......Хл, входящих в формулу (12.7.1), в точности не известны, а известны только их числовые характери- стики: математические ожидания и дисперсии. Если при этом вели- чины ХР Х2.......Хп независимы, а их число п достаточно велико, то. как правило, можно утверждать, что, безотносительно' к виду законов распределения величин Xt, закон распределения величины У
280 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИИ СЛУЧАЙНЫХ АРГУМЕНТОВ (ГЛ. 13 близок к нормальному. На практике для получения закона распре- деления, который приближенно может быть принят зз нормальный, обычно оказывается достаточным наличие 5-г- 10 слагаемых в выра- жении (12.7.1). Следует оговориться, что это не относится к слу- чаю. когда дисперсия одного из слагаемых в формуле (12.7.1) пода- вляюще велика по сравнению со всеми другими; предполагается, что случайные слагаемые в сумме (12.7.1) по своему рассеиванию имеют примерно один и тот же порядок. Если эти условия соблюдены, то для величины Y может быть приближенно принят нормальный закон с параметрами, определяемыми формулами (12.7.2) и (12.7.4). Очевидно, все вышеприведенные соображения о законе распре- деления линейной функции справедливы (разумеется, приближенно) и для того случая, когда функция не является в точности линейной, ио может быть линеаризована. 12.8. Композиция нормальных законов на плоскости Пусть в системе координат хОу заданы два независимых слу- чайных вектора: с составляющими (Xv У,) и V2 с составляющими (Х2. Допустим, что каждый из них распределен нормально. причем параметры пер- вого вектора равны W.r(, /Яу,. ОХ|, ОУ|, Гх,у,. а параметры второго — тУг‘ °У2’ Г-Г»У1- Требуется определить за- кон распределения случай- ного вектора V — V'i+V2 (рис. 12.8.1), составляю- щие которого равны: Не представляет трудности качественно доказать (аналогично тому, как мы это сделали для случая композиции двух нормальных зако- нов в п° 12.6), что вектор V также распределен нормально. Мы при- мем это положение без специального доказательства. Определим параметры закона распределения вектора V. По теореме сложения математических ожиданий тх == + т.Г1. тУ = тУ1 -J- тУг. (12.8.1)
12.8] КОМПОЗИЦИЯ НОРМАЛЬНЫХ ЗАКОНОВ НА плоскости 281 По теореме сложения дисперсий (12.8.2) По теореме сложения корреляционных моментов К„=к.л,+к,л. или. переходя к коэффициентам корреляции. откуда ГХ?ах9у гХ.у^ж^у, + Г гху г па —I— г о о г Х|У| Х| у 1 I ' х»уt лу у8 т+°ж+о’ (12.8.3) Таким образом, задача композиции нормальных законов на пло- скости решается формулами (12.8.1), (12.8.2) и (12.8.3). Эти формулы выведены для того случая, когда оба исходных нормальных закона (для векторов Vj и V2) заданы в одной и той же координатной системе хОу. На практике иногда встречается случай, кт да нужно произвести композицию двух нормальных законов на плоскости, каждый нз которых задан в своей системе координат, а именно в своих главных осях рассеивания. Дадим способ компо- зиции нормальных законов для этого случая. Пусть на плоскости хОу (рис. 12.8.2) даны два нормально рас- пределенных некоррелированных случайных вектора и V2. Каждый из векторов характеризуется своим единичным эллипсом рассеивания: вектор 1?!—эллипсом с центром в точке mti. тУ1 с полуосями о:,, оГр из которых первая образует с осью Ох угол 'ар, аналогичные
282 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИИ СЛУЧАЙНЫХ АРГУМЕНТОВ |ГЛ. 12 характериствки для вектора У2 будут: тХз, тУ2, %, о^, а2. Требуется найти параметры единичного эллипса рассеивания, характеризующего вектор V = V, 4~ V2. Обозначим их Му, ах, Су, а. Так как положение центра рассеивания не зависит от выбора системы координат, очевидно, по-прежнему будут справедливы соот- ношения: тх=тХ1+тл. т, = т,,+тУ1. Для того чтобы найтн элементы корреляционной матрицы век- тора V, спроектируем случайные точки, соответствующие векторам Vj и V2. на оси Ох и Оу. Пользуясь формулой (10.3.3), получим: о2 = cos2 ai siп2 аи о2 = о? sin2 а. -|- о2 cos2 а., * ' , Т ? , , <12.8.4) = °?aCOS2 ®2 4“ % S1 °2 ®2’ <=°lsln2 <b+°icos4- Коэффициенты корреляции составляющих векторов и V2 в системе координат хОу найдем на соотношения (9.2.2): r‘M~ 2с С „ ,, <12.8.5) * х/у, Далее задача композиции нормальных вакоиов иа плоскости сво- дится к предыдущей. Зная ох, оу. гху, можно найти углы, составлен- ные осями суммарного эллипса с осью абсцисс, по формуле (9.2.2): tg2a= \ (12.8.6) °х °у и главные средние квадратические отклонения — по формулам (9.2.4): Of ~ о2 cos2 а гав sin 2а 4- о2 sin2 а, ] * _________________________ | (12.8.7) = уа^ si п2 а —- Гхуах°? si п 2а -j- о2 cos2 а. J ’) Так как тангенс имеет период л, то значения а, определяемые по формуле (12.8.6), могут различаться на что соответствует двум главным осям эллипса.
12 8] КОМПОЗИЦИЯ НОРМАЛЬНЫХ ЗАКОНОВ НА плоскости 283 Последние соотношении справедливы не только для средних квадратических отклонений, но и для пропорциональных им вероят- ных Отклонений: = V&х cos2 а -j- rxyExEy sin 2а -J- & si п2 а, Ег = V&хsin2 а — rx^x^y s’n 2“Н” cos2а’ (12.8.8) Перейдем к композиции произвольного числа нормальных законов на плоскости. С наиболее простым случаем композиции произвольного числа нормальных законов мы встречаемся тогда, когда главные оси рас- сеивания для всех законов, подлежащих композиции, параллельны друг другу. Тогда, выбирая координатные оси параллельно этим главным осям рассеивания, мы будем иметь дело с системами неза- висимых случайных величин, и композиция нормальных законов вы- полняется по простым формулам: и л (12.8.9) где ах, ву, аУ{—главные средине квадратические отклонения соответствующих законов. В случае, иогда направления главных осей нс совпадают, можно составить композицию нескольких нормальных законов тем же мето- дом, которым мы пользовались выше для двух законов, т. е. проек- тируя складываемые случайные векторы на оси одной и той же си- стемы координат. На практике часто встречаются случаи, когда в числе законов, подлежащих композиции, встречаются так называемые «вырожденные» законы, т. е. законы, характеризующиеся эллипсом рассеивания, имею- щим только одну полуось (другая равна нулю). Такие «вырожден- ные» законы дают рассеивание только в одном направлении. При композиции таких законов нужно поступать так же, как при ком- позиции обычных законов, полагая некоторые параметры (средние квадратические или вероятные отклонения) равными нулю. Пример I. Ошибка бомбометания вызвана совместным действием следующих факторов: 1) техническое рассеивание бомб; 2) неточность прицеливания по дальности; 3) неточная наводка в боковом направлении. Все эти факторы независимы. Техническое рассеивание бомб дает единич- ный эллипс рассеивания в виде круга радиусом 20 м. Ошибка прицеливания
284 ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИИ СЛУЧАЙНЫХ АРГУМЕНТОВ |ГЛ. 12 по дальности действует только в направлении полета и имеет среднее квад- ратическое отклонение 40 м‘ центр рассеивания сдвинут вперед по полету па 5 м. Ошибка боковой наводки действует только в направлении, перпен- дикулярном к полету, и имеет среднее квадратическое отклонение 30 м; центр рассеивания смещен вправо на 10 м. Найти параметры нормального закона, которому подчинена суммарная ошибка бомбометания, вызванная сов- местным действием всех перечисленных факторов. Решение. Так как главные осн всех перечисленных в задаче эллип- сов (из которых второй и третий вырождены) параллельны, то можно при- менить правило композиции нормальных законов с независимыми составляю- щими (формулы (12.8.9) ). Выбирая ось Оу по направлению полета, ось Ох — перпендикулярно к нему, имеем; тх = 10, /Пу = 5, о2 = 202 + 302 = 1300. = 36,1 (л), о2 = 202 + 402 = 2000, оу = 44,7 (л). Пример 2. Производится воздушная стрельба с самолета по само- лету; рассеивание точек попадания рассматривается на вертикальной пло- скости, перпендикулярной к направлению стрельбы. Причины рассеивания точек попадания состоят в следующем: i) ошибки, связанные с неоднородностью баллистики снарядов и коле- баниями установки; 2) ошибки наводки; 3) ошибки, вызванные неточностью определения дальности; 4) инструментальные ошибки прицела. Главные оси рассеивания, вызванного первой причиной, расположены тори- зонтально и вертикально, и главные средние квадратические отклонения р1вны соответственно 1 и 2л; ошибка наводки дает круговое рассеивание со средним квадратическим отклонением 3 м; ошибка, вызванная неточно- стью определения дальности, дает рассеивание только вдоль оси, наклонен- ной к горизонту под углом 30°, со с. к. о. 4 м; инструментальные ошибки при- цела дают круговое рассеивание со с. к. о. 2 л, Систематические ошибки равны нулю. Требуется найти параметры закона распределения суммарной ошибки, вызванной всеми перечисленными факторами. Решение. Выбираем систему координат с горизонтальной осью Ох и вертикальной Оу. Эти осн являются главными осями рассеивания для всех законов, кроме третьего (ошибки вследствие неточности определения даль- ности). Обозначим составляющие каждой ошибки в системе координат хОу соответственно: У,; Хя, У,; Уя; Xt. Yt. Параметры этих составляющих равны соответственно: mxt = mxt ~ mxt = тх< = ту. ~ тУ1 ~ myt ~ myt ~ % = '; =2 °ж, = '>. = 3: ах, = '„ = 2. Что касается величии и ayj, то их мы определяем, проектируя случай- ную точку (Хз, У8) на осн Ох н Оу по формулам (12.8.4): о2^ = 42 cos2 30° = 12; о2 = 42 sin2 30° = 4. у»
12_ej КОМПОЗИЦИЯ НОРМАЛЬНЫХ ЗАКОНОВ НА плоскости 285 Коэффициент корреляции величин (ХЭ1 У3) найдем по формуле (12.8.5) tg60°(I2—4) 2 ^48 что и естественно, так как рассеивание сосредоточено на одной прямой и, следовательно, величины Х$ и Ya зависимы функционально. Применяя теорему сложения дисперсии, имеем: = 4, + = 26; ох =* 5,09 (ж); °у = °у. “у» + “л + °у< ~ 2^ °у == 4»58 (•*)• Коэффициент корреляции гху найдем, применяя теорему сложения кор- реляционных моментов: + Кж,У, + *х,у, + ^Ж,у, = 0 + 0 + 1 + 0. откуда __ 4КЗ~2Р» _ xv 2Р8- 5,09 -4,58 ~и’2У/- Определим угол а, который составляет с осью первая главная ось рас- сеивания: tr 2,-^0397-5,09.4,М Е 5,09s —4,58' 1,Л™’ 2о»69”30'; ак34"45'. По формулам (12.8.8) имеем: = C0s2a + гхуахау sin 2a-f- су sin2 a = 5,55 (ж); °TJ = Sin2 a — rxy<3xay sin 2a Ц- a2 cos2a — 4,22 (ж).
ГЛАВА 13 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 13.1. Закон больших чисел и центральная предельная теорема В начале курса мы уже говорили о том, что математические законы теории вероятностей получены абстрагированием реальных статистических закономерностей, свойственных массовым случайным явлениям. Наличие этих закономерностей связано именно с массо- востью явлений, то есть с большим числом выполняемых однородных опытов или с большим числом складывающихся случайных воздей- ствий. порождающих в своей совокупности случайную величину, под- чиненную вполне определенному закону. Свойство устойчивости мас- совых случайных явлений известно человечеству еще с глубокой древности. В каной бы области оио ни проявлялось, суть его сводится к следующему: конкретные особенности каждого отдельного случай- ного явления почти не сказываются на среднем результате массы таких явлений; случайные отклонения от среднего, неизбежные в каж- дом отдельном явлении, в массе взаимно погашаются, нивелируются, выравниваются. Именно эта устойчивость средних и пред- ставляет собой физическое содержание «закона больших чисел», пони- маемого в широком смысле слова: при очень большом числе случай- ных явлений средний их результат практически перестает быть случай- ным и может быть предсказан с большой степенью определенности. В узком смысле слова под «законом больших чисел» в теория вероятностей понимается ряд математических теорем, в каждой из которых для тех нли иных условий устанавливается факт приближе- ния средних характеристик большого числа опытов к некоторым определенным постоянным. В п° 2.3 мы уже формулировали простейшую из этих теорем — теорему Я- Бернулли. Она утверждает, что при большом числе опы- тов частота события приближается (точнее — сходится по вероятно- сти) к вероятности этого события. С другими, более общими фор- мами закона больших чисел мы познакомимся в дайной главе. Все они устанавливают факт и условия сходимости по вероятности тех или иных случайных величин к постоянным, не случайным величинам.
13.2] НЕРАВЕНСТВО ЧЕБЫШЕВА 287 Закон больших чисел играет важную роль в практических приме- нениях теории вероятностей. Свойство Случайных величин при опре- деленных условиях вести себя практически как не случайные позволяет уверенно оперировать с этими величинами, предсказывать резуль- таты массовых случайных явлений почти с полной определенностью. Возможности таких предсказаний в области массовых случайных явлений еще больше расширяются наличием другой группы предель- ных теорем, касающихся уже не предельных значений случайных величии, а предельных законов распределения. Речь идет о группе теорем, известных под названием «центральной предельной теоремы». Мы уже говорили о том, что прн суммировании достаточно большого числа случайных величин закон распределения суммы неограниченно приближается к нормальному при соблюдении некоторых условий. Эти условия, которые математически можно формулировать различным образом — в более или менее общем виде.—по существу сводятся к требованию, чтобы влияние на сумму отдельных слагаемых было равномерно малым, т. е. чтобы в состав суммы не входили члены, явно преобладающие над совокупностью остальных по своему влия- нию на рассеивание суммы. Различные формы центральной предельной теоремы различаются между собой теми условиями, для которых устанавливается это предельное свойство суммы случайных величии. Различные формы закона больших чисел вместе с различными формами центральной предельной теоремы образуют совокупность так называемых предельных теорем теории вероятностей. Предель- ные теоремы дают возможность не только осуществлять научные прогнозы в 'области случайных явлений, но и оценивать точность этих прогнозов. В данной главе мы рассмотрим только некоторые, наиболее про- стые формы предельных теорем. Сначала будут рассмотрены теоремы» относящиеся к группе «закона больших чисел», затем—теоремы, относящиеся к группе «центральной предельной теоремы». 13.2. Неравенство Чебышева В качестве леммы, необходимой для доказательства теорем, отно- сящихся к группе «закона больших чисел», мы докажем одно весьма общее неравенство, известное под названием неравенства Чебышева. Пусть имеется случайная величина X с математическим ожида- нием тх и дисперсией Dx. Неравенство Чебышева утверждает, что» каково бы нн было положительное число а. вероятность того, что величина X отклонится от своего математического ожидания Не меньше чем на а, ограничена сверху величиной
288 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕН [ГЛ 13 Доказательство. I. Пусть величина X прерывная, с рядом распределения II *i I I - - -1 Pi II Pi I Pt I • • I Pn ' Изобразим возможные значения величины X и ее математическое ожидание тх в виде точек на числовой оси Ох (рнс. 13-2.1). Зададимся некоторым значением а > 0 и вычислим вероятность того, что величина X отклонится от своего математического ожида- ния не меньше чем на а: Р(|Х —тх|>а). (13.2.2) Для этого отложим от точки тх вправо н влево по отрезку дли- ной а; получим отрезок АВ. Вероятность (13.2.2) есть не что иное. как вероятность того, что случайная точка X попадет не внутрь отрезка АВ, а вовне его; P(|X — mj>n) = = Р(Л'£/1В)'). Для того чтобы найти эту вероятность, нужно просуммировать вероятности всех тех значений х{, которые лежат вне отрезка АВ. Это мы запишем следующим образом: />(|Х— mj>a) = £ р,. (13.2.3) 1 где запись |х£ — под знаком суммы означает, что суммиро- вание распространяется на все те значения I, для которых точки X, лежат вне отрезка АВ. С другой стороны, напишем выражение дисперсии величины X По определению: D, = Al[(X-m,)!l=S(*l —= —"'xl’Pr <13.2 4) 1=1 »=1 Так как все члены суммы (13.2.4) неотрицательны, она может только уменьшиться, если мы распространим ее не на все значения а только на некоторые, в частности на те, которые лежат вне Отрезка АВ'. Dx> S |х, —(13.2.5) \х1~тх |>в ') Концы отрезка АВ мы в него ие включаем.
13 2] НЕРАВЕНСТВО ЧЕБЫШЕВА 289 Заменим под знаком суммы выражение |xt— mJ через а. Так как для всех членов суммы |xf— mx|>a. то от такой замены сумма тоже может только уменьшиться; значит. Dx> 2j a2P/ = a2 2 Pl- (13.2.6) Но согласно формуле (13.2.3) сумма, стоящая в правой части (13.2.6). есть не что иное, как вероятность попадания случайной точки вовне отрезка АВ\ следовательно, >а2Р(] Л—а). откуда непосредственно вытекает доказываемое неравенство. 2. В случае, когда величина X непрерывна, доказательство про- водится аналогичным образом с заменой вероятностей р, элементом вероятности, а конечных сумм — интегралами. Действительно, Р(|Х — mJ >a) = J /(x)dx‘). (13.2.7) [ X- mx [ > a где f (x)— плотность распределения величины X. Далее, имеем: J (*—mx)2f(x)^x=j |*— mJ2 f C*) > J \x — mJC\tf(x')dx, И—’J»’ где знак |x—тж| > а под интегралом означает, что интегрирова- ние распространяется на внешнюю часть отрезка АВ. Заменяя |х—тх| под знаком интеграла через а, получим: Dx^d? J f (x)dx=a~P{\X — тЛ|>а), откуда и вытекает неравенство Чебышева для непрерывных величин. Пример. Дана случайная величина X с математическим ожида- нием тх и дисперсией о2. Оценить сверху вероятность того, что величина X отклонится от своего математического ожидания не меньше чем на Зох. Решение. Полагая в неравенстве Чебышева a ~ Зож, имеем: P(|X-mJ>3oJ<^ = l. ') Знак > заменен знаком >, так как для непрерывной величины вероят- ность точного равенства равна нулю. 1(1 Теория вероятностей
290 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕН [ГЛ. IS т. е. вероятность того, что отклонение случайной величины от ее математического ожидания выйдет за пределы трех средних квадра- тических отклонений, не может быть больше Примечание. Неравенство Чебышева дает только верхнюю границу вероятности данного отклонения. Выше этой границы вероятность не может быть ни при каком законе распределения. На практике в большинстве случаев вероятность того, что величина X выйдет за пределы участка тх ± Зог, значительно меньше Напри- мер. для нормального закона эта вероятность приблизительно равна 0.003. На практике чаще всего мы имеем дело со случайными величинами, значения которых только крайне редко выходят за пре- делы тж±3ох. Если закон распределения случайной величины неиз- вестен. а известны только тх н ах, на практике обычно считают отрезок тх±3ох участком практически возможных значений случайной величины (так называемое «правило трех сигма»). 13.3. Заной больших чисел (теорема Чебышева) В данном п° мы докажем одну нз простейших, но вместе с тем наиболее важных форм закона больших чисел—теорему Чебышева. Эта теорема устанавливает связь между средним арифметическим наблюденных значений случайной величины и ее математическим ожиданием. Предварительно решим следующую вспомогательную задачу. Имеется случайная величина X с математическим ожиданием тх и дисперсией Dx. Над этой величиной производится п независимых опытов и вычисляется среднее арифметическое всех наблюденных вначеннй величины X. Требуется найти числовые характеристики этого среднею арифметического — математическое ожидание и диспер- сию— и выяснить, как они изменяются с увеличением п. Обозначим: Л*! — значение величины X в первом опыте; Х2— значение величины X во втором опыте, и т. д. Очевидно, совокупность величин Xv А*2. .... Хп представляет собой п независимых случайных величин, каждая из которых распре- делена по тому же закону, что н сама величина X. Рассмотрим среднее арифметическое этих Величин; Случайная величина У есть длинная функция независимых слу- чайных величин Лр А*2........Ха Найдем математкчсско~ ожидание
13.31 ЗАКОН БОЛЬШИХ ЧИСЕЛ (ТЕОРЕМА ЧЕБЫШЕВА) 291 и дисперсию этой величины. Согласно правилам п° 10 для определения числовых характеристик линейных функций получим: т, = М [ и = -L- У М [Л,] — ~ пт, = т,; 1=1 Z=1 Итак, математическое ожидание величины Y не зависит от числа опытов п и равно математическому ожиданию наблюдаемой вели- чины Х\ чго касается дисперсии величины Y, то она неограниченно убывает с увеличением числа опытов и при достаточно большом п может быть сделана сколь угодно малой. Мы убеждаемся, что среднее арифметическое есть случайная величина со сколь угодно малой дис- персией и при большом числе опытов ведет себя почти как не случайная. Теорема Чебышева и устанавливает в точной количественной форме это свойство устойчивости среднего арифметического. Она формулируется следующим образом: При достаточно большом числе независимых опытов среднее арифметическое наблюденных значений случайной величины сходится по вероятности к ее математическому ожиданию. Запишем теорему Чебышева в виде формулы. Для этого напомним смысл термина «сходится по вероятности». Говорят, что случайная величина Хп сходится по вероятности к величине а, если при увели- чении п вероятность того, что Хп и а будут сколь угодно близки, неограниченно приближается к единице, а это значит, что при достаточно большом п P(]*n —а| <е)> 1 —8. где е, 8—произвольно малые положительные числа. Запишем в аналогичной форме теорему Чебышева. Она утверждает, что при увеличении п среднее арифметическое •-^-5- сходится по вероятности к тх, т. е. Докажем это неравенство.
292 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1ГЛ 13 Доказательство. Выше было показано, что величина имеет числовые характеристики ту = тл; Dy=—. Применим к случайной величине Y неравенство Чебышева, полагая а = е: £>v D* Р (| myl ^е) С-^а~ — - Как бы мало ни было число е, можно взять п таким большим, чтобы выполнялось неравенство где 6 — сколь угодно малое число. Тогда откуда, переходя к противоположному событию, имеем: что и требовалось доказать. 13.4. Обобщенная теорема Чебышева. Теорема Маркова Теорема Чебышева легко может быть обобщена иа более слож- ный случай, а именно когда закон распределения случайной вели- чины А' от опыта к опыту не остается одним н тем же» а изменяется. Тогда вместо среднего арифметического наблюденных значений одной и той же величины X С постоянными математическим ожиданием и дисперсией мы имеем дело со средним арифметическим п различных случайных величин, с различными математическими ожиданиями и дисперсиями. Оказывается, что и в этом случае при соблюдении некоторых условий среднее арифметическое является устойчивым и сходится по вероятности к определенной неслучайной величине.
13.4] ОБОБЩЕННАЯ ТЕОРЕМА ЧЕБЫШЕВА. ТЕОРЕМА МАРКОВА 293 Обобщенная теорема Чебышева формулируется следующим образом. Если .....*п~ независимые случайные величины с математическими ожида- ниями mXi, ...» тж и дисперсиями Dx. DK. .... Dx । “s’ Лп и если все дисперсии ограничены сверху одним и тем же числом L: DXl<L (/=1.2.........П). то при возрастании п среднее арифметическое наблюденных значений величин Ху, Х2- .... Хп сходится по вероятности к среднему арифметическому их математических ожиданий1). Запишем эту теорему в виде формулы. Пусть е, 3 — сколь угодно малые положительные числа. Тогда при достаточно большом п Доказательство. Рассмотрим величину Ее математическое ожидание равно: п У т а дисперсия ') То есть разность между тем и другим средним арифметическим сходится по вероятности к нулю.
294 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1ГЛ. 13 Применим к величине F неравенство Чебышева: или Р(|У — ™у| (13.4.2) Заменим в правой части неравенства (13.4.2) каждую из вели- чин DK большей величиной L. Тогда неравенство только усилится: У т. L ле5 Как бы мало ни было е. можно выбрать л настолько большим, чтобы выполнялось неравенство тогда откуда, переходя к противоположному событию, получим доказываемое неравенство (13.4.1). Закон больших чисел может быть распространен и на зависимые случайные величины. Обобщение закона больших чисел на случай зависимых случайных величии принадлежит А. А. Маркову. Теорема Маркова. Если имеются зависимые случайные величины Хх, Х2. .... Хп и если при сто среднее арифметическое наблюденных значений случайных величин Xv Х2....Х„ сходится по вероятности к среднему арифметическому их математических ожиданий. Доказательство. Рассмотрим величину Y=.~--. л
13.5] ТЕОРЕМА БЕРНУЛЛИ И ПУАССОНА 295 Очевидно, Применим к величине Y неравенство Чебышева: Р(|И-т,| Так как по условию теоремы при п—>оо Dv->0, то при доста- точно большом п пли, переходя к противоположному событию. что и требовалось доказать. 13.5. Следствия закона больших чисел: теоремы Бернулли и Пуассона Известная теорема Я. Бернулли, устанавливающая связь между частотой события и его вероятностью, может быть доказана как пря- мое следствие закона больших чисел. Пусть производится п независимых опытов, в каждом из которых может появиться или не появиться некоторое событие А, вероятность которого в каждом опыте равна р. Теорема Я, Бернулли утверждает, что при неограниченном увеличении числа опытов п частота события А сходится по вероятности к его вероятности р. Обозначим частоту события А в п опытах через Р‘ и запишем теорему Я. Бернулли в виде формулы Р(|Р*-р|<е)>1-8. (13.5.1) где е, 8—сколь угодно малые положительные числа. Требуется доказать справедливость этой формулы при достаточно большом п. Доказательство. Рассмотрим независимые случайные ве- личины: Л*1 — число появлений события А в первом опыте; Л’2 — число появлений события А во втором опыте, и г. д.
296 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ 13 Все эти величины прерывны и имеют один и тот же закон рас- пределения, выражаемый рядом вида: All. Q I Р где = 1 — р. Математическое ожидание каждой из величин Xt равно р. а ее дисперсия pq (см. п° 10.3). Частота Р* представляет собой не что иное, как среднее ариф- метическое величин Xv Х2, .... Хп: и, согласно закону больших чисел, сходится по вероятности к общему математическому ожиданию этих случайных величин» Отсюда и сле- дует справедливость неравенства (13.5.1). Теорема Я. Бернулли утверждает устойчивость частоты при постоянных условиях опыта. Но при изменяющихся условиях опыта аналогичная устойчивость также существует. Теорема, устанавливаю- щая свойство устойчивости частот прн переменных условиях опыта, называется теоремой Пуассона и формулируется следующим образом: Если производится п независимых опытов и вероятность появления события А в l-м опыте равна pt, то при увеличе- нии п частота события А сходится по вероятности к сред- нему а рифметическому вероятностей р£. Теорема Пуассона выводится из обобщенной теоремы Чебышева точно так же, как теорема Бернулли была выведена из закона больших чисел. Теорема Пуассона имеет большое принципиальное значение для практического применения теории вероятностей. Дело в том, что зачастую вероятностные методы применяются для исследования явле- ний, которые в одних и тех же условиях не имеют шансов повто- риться достаточно много раз, но повторяются многократно при весьма разнообразных условиях, причем вероятности интересующих нас собы- тий сильно зависят от этих условий. Например, вероятность пораже- ния цели в воздушном бою существенно зависит от дальности стрельбы, ракурса цели, высоты полета, скорости стреляющего самолета и цели и т. д. Комплекс этих условий слишком многочислен для того, чтобы можно было рассчитывать на многократное осуще- ствление воздушного боя именно в данных фиксированных условиях. И все же, несмотря на это, в данном явлении налицо определенная устойчивость частот, а именно частота поражения цели в реальных воздушных боях, осуществляемых в самых разных условиях, будет
13 6) МАССОВЫЕ СЛУЧАЙНЫЕ явления 297 приближаться к средней вероятности поражения цели, харак- терной для данной группы условий. Поэтому те методы организации стрельбы, которые основаны на максимальной вероятности поражения цели, будут оправданы и в данном случае, несмотря на то, чго нельзя ожидать подлинной массовости опытов в каждом определен- ном комплексе условий. Аналогичным рбразом обстоит дело в области опытной проверки вероятностных расчетов. На практике очень часто встречается слу- чай, когда требуется проверить на опыте соответствие вычисленной вероятности какого-либо события А его фактической частоте. Чаще всего это делается для того, чтобы проверить правильность той или иной теоретической схемы, положенной в основу метода вычисления вероятности события. Зачастую при такой экспериментальной про- верке не удается воспроизвести достаточно много раз одни и те же условия опыта. И все же эта проверка может быть осуществлена» если сравнить наблюденную в опыте частоту события не с его вероятностью для фиксированных условий, а со средним ариф- метическим вероятностей, вычисленных для различных условий. 13.6. Массовые случайные явления и центральная предельная теорема В предыдущих nV мы рассмотрели различные формы закона больших чисел. Все эти формы, как бы они ни были различны, утверждают одно: факт сходимости по вероятности тех пли иных случайных величин к определенным постоянным. Ни в одной из форм закона больших чисел мы не имеем дела с законами распре- деления случайных величин. Предельные законы распределения составляют предмет другой группы теорем — центральной предельной теоремы, которую иногда называют «количественной формой закона больших чисел». Все формы центральной предельной теоремы посвящены устано- влению условий, при которых возникает нормальный закон распреде- ления. Так как эти условия па практике весьма часто выполняются, нормальный закон является самым распространенным из законов рас- пределения, наиболее часто встречающимся в случайных явлениях природы. Он возникает во всех случаях, когда исследуемая слу- чайная величина может быть представлена в виде суммы достаточ- но большого числа независимых (нли слабо зависимых) элементар- ных слагаемых, каждое из которых в отдельности сравнительно мало влияет иа сумму. В теории стрельбы нормальный закон распределения играет особо важную роль, так как в большинстве случаев практики координаты точек попадания и точек разрыва снарядов распределяются по нор- мальному закону. Объяснить это можно на следующем примере.
298 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕН [ГЛ 13 Пусть производится стрельба по некоторой плоской мишени, с центром которой (точкой прицеливания) связано начало координат. Точка попадания характеризуется двумя случайными величинами: X и У. Рассмотрим одну нз них. например отклонение X точки попадания ст цели в направлении оси Ох. Это отклонение вызвано совокупным действием очень большого количества сравнительно малых факторов, как-го: ошибка наводки, ошибка в определении дальности до цели, вибрации орудия и установки при стрельбе, ошибки изготовления снаряда, атмосферные условия и т. д. Каждая нз этих причин создает элементарную ошибку—отклонение снаряда от цели, и координата снаряда X может быть представлена как сумма таких элементарных отклонений: Х = A'j-J-Х2~Ъ~ ... + А\-|- .... (13.6.1) где Xv Afjj, ...—отклонения, вызванные отдельными факторами. Так как этих факторов очень много, между собойх они являются в основном независимыми н по влиянию на сумму отдельные слагае- мые можно считать приблизительно равномерно малыми, то налицо условия применимости центральной предельной теоремы, и вели- чина (13.6.1) должна подчиняться закону распределения, близкому к нормальному. Остановимся несколько подробнее на нашем утверждении о при- близительно равномерно малом влиянии каждого нз слагаемых па сумму. Смысл его в том, что средн элементарных ошибок стрельбы нет нн одной резко превалирующей над суммой всех остальных. Действительно, если бы такая ошибка была, нужно думать, что, составляя правила стрельбы или конструируя прицельный прибор, мы постарались бы ликвидировать эту ошибку и учесть заранее самую значительную причину, отклоняющую снаряд от цели. Неучтенные случайные факторы, создающие рассеивание, обычно характерны своей равномерной малостью и отсутствием среди них резко преоб- ладающих. Именно поэтому закон распределения точек попадания снарядов (нли закон распределения точек разрыва снарядов при дистанционной стрельбе) обычно принимается нормальным й). Нормальный закон распределения является доминирующим не только в теории стрельбы, но и во многих других областях, напри- мер в теории ошибок измерения. Именно исходя нз теории ошибок измерения нормальный закон и был впервые обоснован Лапласом и Гауссом. Действительно, в большинстве случаев ошибки, возникаю- ') В некоторых случаях стрельбы фактическое распределение точек по- падания на плоскости может сильно отличаться от нормального, например, при стрельбе в резко переменных условиях, когда центр рассеивания к ве- роятное отклонение в процессе стрельбы заметно меняются. Однако в таких случаях мы фактически имеем дело не с законом распределения координат точки попадания прн одном виореле, а со средним из таких законов-для различных выстрелов.
[3.7] ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ 299 шие при измерении тех или иных физических величин, распреде- ляются именно по нормальному закону; причина этого в том, что такие ошибки, как правило, складываются из многочисленных незави- симых элементарных ошибок, порождаемых различными причинами. Долгое время нормальны!! закон считался единственным и универ- сальным законом ошибок. В настоящее время взгляд на нормальный закон как на единственный и универсальный должен быть пересмотрен (опыт показывает, что в ряде процессов измерения н производства наблюдаются законы распределения, отличные от нормального), но все же нормальный закон остается самым распространенным и самым важным для практики законом ошибок. 13.7. Характеристические функции Одна из наиболее общих форм центральной предельной теоремы была доказала А, М. Ляпуновым в 1900 г. Для доказательства этой теоремы А. М- Ляпунов создал специальный метод характери- стических функций. В дальнейшем этот метод приобрел само- стоятельное значение и оказался весьма мощным и гибким методом, пригодным для решения самых различных вероятностных задач. Характеристической функцией случайной величины X назы- вается функция £(<) = Л1 [е"х1. (13.7.1) где I— мнимая единица. Функция g(t) представляет собой математи- ческое ожидание некоторой комплексной случайной величины U = e,tx, функционально связанной с величиной X. Прн решении многих задач теории вероятностей оказывается удобнее пользоваться характеристи- ческими функциями, чем законами распределения. Зная закон распределения случайной величины X. легко найти се характеристическую функцию. Если X — прерывная случайная величина с рядом распределения Pl 1 Pi то ее характеристическая функция S(0 = 2j«'"»P»- (13.7.2)
300 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 13 Если X — непрерывная случайная величина с плотностью распреде- ления f (х), то ее характеристическая функция £(/)= (13.7.3) Пример 1. Случайная величина X— число попаданий при одном выстреле. Вероятность попадания равна р. Найти характеристическую функ- цию случайной величины X. Решение. По формуле (13.7.2) имеем: £(() = «“ ° (! — />) + «'' '/> = ? + «"₽. где а = 1 — р- Пример 2. Случайная величина X имеет нормальное распределение; 4 /(Л>—j/W' (13.7.4) Определить ее характеристическую функцию. Решение. По формуле (13.7.3) имеем: е(/) = fe‘" 2 “х=-^ f‘ 2 dx- —со -оо Пользуясь известной формулой « __ ZC ff уг-^±г^-С(/х=,рЛ^е л —СО и имея в виду, что /2 = — 1» получим: £(')=« 2 (13.7.6) Формула' (13.7.3) выражает характеристическую функцию g(t) непрерывной случайной величины X через ее плотность распределе- ния f (х). Преобразование (13.7.3), которому нужно подвергнуть /(л), чтобы получить g[t\ называется преобразованием Фурье. В курсах математического анализа доказывается, что если функция g(t) выра- жается через / (х) с помощью преобразования Фурье, то, в свою очередь, функция / (х) выражается через g(t) с помощью так назы- ваемою обратного преоб разования Фурье-. = ') (13.7.7) ’) В п°п° 17.3, 174 будут выведены тс же преобразования Фурье, свя- зывающие корреляционную функцию и спектральную плотность.
13.7] ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ 301 Сформулируем и докажем основные свойства характери- стических функций. 1. Если случайные величины X и Y связаны соотношением Y = aX, гяе а — неслучайный множитель, то их характеристические функции связаны соотношением: £у(0 = М*0- (13.7.8) Доказательство: gy (t) = М [е"у] = М [е"вХ] = М [е1 <®О X] = gx {at). 2. Характеристическая функция суммы независимых слу- чайных величин равна произведению характеристических функ- ций слагаемых. Доказательство. Даны Xv Х2. .... Хп — независимые слу- чайные величины с характеристическими функциями gx (0- gx (Л......(0 *1 я П и их сумма „ *“х Требуется доказать, что ?,(0 = П?„Ю. (137.9) * Л=1 * Имеем п gJ,(0 = M(e'"'| = Af [е »-• *] = М Так как величины ХЛ независимы, то независимы и их функции eItxK По теореме умножения математических ожиданий получим: g, V)=Д м = Д (0. что и требовалось доказать. Аппарат характеристических функций часто применяется для ком- позиции законов распределения. Пусть, например, имеются две не- зависимые случайные величины X и Y с плотностями распределе- ния fi (х) и /2 (у). Требуется найти плотность распределения величины Z = X-^-Y. ?то можно выполнить следующим образом: найти характеристиче- ские функции gx(t) и gy(t) случайных величин X и Y и, перемножив
302 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1ГЛ- (3 их, получить характеристическую функцию величины Z: после чего, подвергнув gz(/) обратному преобразованию Фурье, найти плотность распределения величины Z: /ай=4 f e-'^g.Wdt. Пример 3, Найти с помощью характеристических функций компози- цию двух нормальных законов: /1 (л) с характеристиками тх = О, ох; /2 (у) с характеристиками ту = 0; су. Решение. Находим характеристическую функцию величины Л. Для этого представим ее в виде X = чхи, где /лв = 0; cu= I. Пользуясь результатом примера 2, найдем gu = e 2 Согласно свойству 1 характеристических функций, (°/Г gx (0 — ga (",«) = е 2 . Аналогично С°у')’ «,(')=« 2 . Перемножая gx (Г) и gy (/), имеем: а это есть характеристическая функция нормального закона с параметрами т2 = 0; аг = °у- Таким образом получена композиция нормальных заколов гораздо более простыми средствами, чем в п° 12.6. 13.8. Центральная предельная теорема для одинаково распределенных слагаемых Различные формы центральной предельной теоремы отличаются между собой условиями, накладываемыми на распределения образую- щих сумму случайных слагаемых. Здесь мы сформулируем н докажем одну из самых простых форм центральной предельной теоремы, отно- сящуюся к случаю одинаково распределенных слагаемых. 13.8] ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 303 Теорема. Если Хх, АГ2, .... Хп. ... —независимые случай- ные величины, имеющие один и тот же закон распределения с математическим ожиданием т и дисперсией а2, то при не- ограниченном увеличении п закон распределения суммы п Г„ = 2Х, (13.8 1) ft= 1 неограниченно приближается к нормальному. Доказательство. Проведем доказательство для случая непрерывных случайных ве- личин Л,.....Ха (для прерывных оно будет аналогичным). Согласно второму свойству характеристических функций, дока- занному в предыдущем п°, характеристическая функция величины представляет собой произведение характеристических функций слага- емых. Случайные величины Хх, .... Хп имеют один и тот же закон распределения с плотностью /(х) и» следовательно, одну и ту же характеристическую функцию gx(t)= f e‘"/(x)dx. (13.8.2) Следовательно, характеристическая функция случайной величины Уп будет ^й(0 = [^«1п. (13.8.3) Исследуем более подробно функцию gx(t). Представим ее в окрест- ности точки /==0 по формуле Маклорена с тремя членами: gx = ёх (°> + е'х (0) t + +«(о] С, (13.8.4) где a(i)—>0 при t—>0. Найдем величины £ж(0), g^(0), £^(0). Полагая в формуле (13.8.2) I = 0, имеем: ёх(0)= f f(x)dx = l. (13.8.5) — СП Продифференцируем (13.8.2) по f: СО со gxW = f lxe""f(x)dx=l J xe'^flxyax. (13 8.6) -из -03
304 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ [ГЛ. 18 Полагая в (13.8.6) / = 0, получим: gr'(0) = * J xf(x)dx=lM[X]=lm. (13.8.7) Очевидно, не ограничивая общности, можно положить т~0 (для этого достаточно перенести начало отсчета в точку т). Тогда ^;(О)=о. Продифференцируем (13.8.6) еще раз: — f xV’f^dx. отсюда £(0) = — J хг/М4х (13.8.8) -со Прн т — 0 интеграл в выражении (13.8.8) есть не что иное, как дисперсия величины X с плотностью /(х), следовательно g-"(0)=-o2. (13.8.9) Подставляя в (13.8.4) gx (0) = 1. g'x (0) = 0 и g'x (0) — — а2, получим: gx(Z)=l-р2- —а(/)]/< (13 8.10) Обратимся к случайной величине Кп. Мы хотим доказать, что ее закон распределения при увеличении п приближается к нормальному. Для этого перейдем от величины Уп к другой («нормированной») случайной величине у zn=----(13.8.11) о у п Эта величина удобна тем. что ее дисперсия не зависит от л н равна единице при любом л. В этом нетрудно убедиться, рассматривая величину Z„ как линейную функцию независимых случайных величин Xv Х2.......А'я. каждая из которых имеет дисперсию о2. Если мы докажем, что закон распределения величины Z„ приближается к нор- мальному, то. очевидно, это будет справедливо и для величины Yn, связанной с Zn линейной зависимостью (13.8.11). Вместо того чтобы доказывать, что закон распределения величины Z„ при увеличении п приближается к нормальному, покажем, что ее характеристическая функция приближается к характеристической функ- ции нормального закона1). ’) Здесь мы принимаем без доказательства, что из сходимости характе- ристических функций следует сходимость законов распределения. Доказа- тельство см., например, Б. В. Г веден к о, Курс теории вероятностей, 1961.
13.8] ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 305 Найдем характеристическую функцию величины Лл. Из соотноше- ния (13.8.11), согласно первому свойству характеристических функций (13.7.8). получим Ля(0 = ^.(^)" (13.8.12) гДе gyn (0 — характеристическая функция случайной величины Yn. Из формул (13.8.12) н (13.8.3) получим (трт)]" <13-813) или, пользуясь формулой (13.8.10), Прологарифмируем выражение (13.8.14): Введем обозначение <13-815> Тогда ,п^гя(0 = п1п (1 —х). (13.8.И) Будем неограниченно увеличивать п. При этом величина х, согласно формуле (13.8.15), стремится к нулю. При значительном п ее можно считать весьма малой. Разложим In {I—х) в ряд и ограничимся одним членом разложения (остальные при л—>оо станут пренебре- жимо малыми): In [1 —к] я» — х. Тогда получим lim In (О = llrn n • (— ж) = Я->сс Л-><о = bm |-^ + .ШД|=_Г+»т£,/М По определению функция а (О стремится к нулю при t—>0; следа вательно, 11ш а(—= 0 л->со \ а у п / и- liming (<) = — £, Л-ХО *
306 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ {ГЛ. 13 откуда и Um?tt(0=«'!. (13.8.17) Л-»са Это есть не что иное, как характеристическая функция нормального закона с параметрами т—0. в=1 (см. пример 2, п° 13.7). Таким образом, доказано, что при увеличении п характеристиче- ская функция случайной величины Zn неограниченно приближается к характеристической функции нормального закона; отсюда заключаем, что и закон распределения величины Zn (а значит и величины Еп) неограниченно приближается к нормальному закону. Теорема доказана. Мы доказали центральную предельную теорему для частного, но важного случая одинаково распределенных слагаемых. Однако в до- статочно широком классе условий она справедлива и для неодинаково распределенных слагаемых. Например. А. М. Ляпунов доказал цен- тральную предельную теорему для следующих условий: lim „ =0, (13.8.18) Л-*ОО I ХП „ I ,3 *1 где —третий абсолютный центральный момент величины Xkz = = (Л = 1......п). Dk—дисперсия величины Наиболее общим (необходимым и достаточным) условием спра- ведливости центральной предельной теоремы является условие Линдеберга; при любой ъ > О п ./ (•*—">»)2/»(*)<**= °- где тк— математическое ожидание, fk (х) — плотность распре- деления случайной величины X k, Вп=\^^iDb. А=1 R 13.9. Формулы, выражающие центральную предельную теорему н встречающиеся при ее практическом применении Согласно центральной предельной теореме, закон распределения суммы достаточно большого числа независимых случайных величин (при соблюдении некоторых нежестких ограничений) сколь угодно близок к нормальному. 13.4] ФОРМУЛЫ. ВЫРАЖАЮЩИЕ ЦЕНТРАЛЬНУЮ ПРЕДЕЛЬНУЮ ТЕОРЕМУ 307 Практически центральной предельной теоремой можно пользо- ваться и тогда, когда речь идет о сумме сравнительно небольшого числа случайных величин. При суммировании независимых случайных величин, сравнимых по своему рассеиванию, с увеличением числа сла- гаемых закон распределения суммы очень скоро становится прибли- зительно нормальным. На практике вообще широко применяется при- ближенная замена одних законов распределения другими; при той сравнительно малой точности, которая требуется от вероятностных расчетов, такая замена тоже может быть сделана крайне приближенно. Опыт показывает, что когда числи слагаемых порядка десяти (а часто и меньше), закон распределения суммы обычно может быть заменен нормальным. В практических задачах часто применяют центральную предельную теорему для вычисления вероятности того, что сумма нескольких случайных величин окажется в заданных пределах. Пусть Хх. Х2.....Хп—независимые случайные величины с ма- тематическими ожиданиями а дисперсиями mt. т2......тп D,- D2......D„. Предположим, что условия центральной предельной теоремы вы- полнены (величины Х}. Х2, .... Хп сравнимы по порядку своего влияния на рассеивание суммы) и число слагаемых п достаточно для того, чтобы закон распределения величины У (13.9.1) можно было считать приближенно нормальным. Тогда вероятность того, чго случайная величина У попадает в пре- делы участка (а, £). выражается формулой (13.9.2) где ту, ау — математическое ожидание и среднее квадратическое от- клонение величины Ф* — нормальная функция распределения. Согласно теоремам сложения маюмашческих ожиданий и дисперсий = 2 mi- ‘=1 (13.9.3)
308 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕН (ГЛ 13 Таким образом, для того чтобы приближенно найти вероятность попадания суммы большого числа случайных величин на заданный участок, не требуется знать законы распределения этих величии; до- статочно знать лишь их характеристики. Разумеется, это относится только к случаю, когда выполнено основное условие центральной предельной теоремы — равномерно малое влияние слагаемых на рас- сеивание суммы. Кроме формул типа (13.9.2), на практиие часто применяются фор- мулы в которых вместо суммы случайных величин Xt фигурирует их нормированная сумма п п f, Z=b = “ /' "" ’ <’3!U> Очевидно, A![Z]=0; DlZ]—az = l. Если закон распределения величины К близок к нормальному с параметрами (13.9,3), то закон распределения величины Z близок к нормальному с параметрами тя = 0, cz — 1. Отсюда Р (а < Z < р) = Ф* (Р) — Ф* (а). (13.9.5) Заметим, что центральная предельная теорема может применяться не только к непрерывным, но и к дискретным случайным величинам при условии, что мы будем оперировать ие плотностями, а функциями распределения. Действительно, если величины Хх, Х^.......Хп дис- кретны, то их сумма Л—также дискретная случайная величина и поэтому, строго говоря, не может подчиняться нормальному закону. Однако все формулы типа (13.9.2), (13.9.5) остаются в силе, так как в них фигурируют не плотности, а функции распределения. Можно джазать, что если дискретные случайные величины удовлетворяют условиям центральной предельной теоремы, то функция распределе- ния их нормированной суммы Z (см- формулу (13.9.4)) при увеличе- нии п неограниченно приближается к нормальной функции распреде- ления с параметрами mz = 0. oz=l. Частным случаем центральной предельной теоремы для дискрет- ных случайных величин является теорема Лапласа. Если производится п независимых опытов, в каждом из которых событие Л появляется с вероятностью р, то спра- ведливо соотношение <₽) = (₽) — ф*(“). О3-9-6) где К — число появлений события А в п опытах. д—\—р.
130] ФОРМУЛЫ, ВЫРАЖАЮЩИЕ ЦЕНТРАЛЬНУЮ ПРЕДЕЛЬНУЮ ТЕОРЕМУ 309 Доказательство. Пусть производится п независимых опытов, в каждом из которых с вероятностью р может появиться событие А. Представим случайную величину ¥ — общее число появлений события в п опытах — в виде суммы Г=2*(. (13.9.7) где Xt— число появлений события Л в /-м опыте. Согласно доказанной в п° 13.8 теореме, закон распределения суммы одинаково распределенных слагаемых при увеличении их числа приближается к нормальному закону. Следовательно, прн достаточно большом п справедлива формула (13.9.5), где У— ту Z = (13.9.8) В п° 10.3 мы доказали, что математическое ожидание и дисперсия числа появлений события в п независимых опытах равны: mv ~ пР‘. = npq (д = 1 — р). Подставляя эти выражения в (13.9.8), получим Z= У—ПР' Vnpq и формула (13.9.5) примет вид: р(о<7^<0=ф,(₽)-ф‘(а)- Теорема доказана. Пример 1. По полосе укреплений противника сбрасывается 100 серий бомб. При сбрасывании одной такой серии математическое ожидание числа попаданий равно 2, а среднее квадратическое отклонение числа попаданий равно 1,5. Найти приближенно вероятность того, что при сбрасывании 100 серий в полосу попадает от 180 до 220 бомб. Решение. Представим общее число попаданий как сумму чисел по- паданий бомб в отдельных серн я х.- 100 X — X, — -J- X|oq — У X/, i = 1 где Xj — число попаданий /-й серин. Условия центральной предельной теоремы соблюдены, так как величины Xi. Х2,.... Х|в0 распределены одинаково. Булем считать число л = 100 до- статочным для того, чтобы можно было применить предельную теорему (на практике она обычно применима и прн гораздо меньших п). Имеем; но п ню п, = 2 ”'1 = 2<Я, 2 D<= 2 !-5’-=225.
310 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1ГЛ 13 Применяя формулу (13.9.6), получим: т. е. с вероятностью 0,82 можно утверждать, что общее число попаданий в полосу нс выйдет за пределы 180 — 220. Пример 2. Происходит групповой воздушный бон, в котором уча- ствуют 50 бомбардировщиков и 100 истребителей. Каждый бомбардировщик апкуется двумя истребителями; таким образом, воздушный бой распадается hi 50 элементарных воздушных боев, в каждом из которых участвует один бомбардировщик н два истребителя. В каждом элементарном бою вероят- ность сбитня бомбардировщика равна 0,4; вероятность того, что в элемен- тарном бою будут сбиты оба истребителя, равна 0,2; вероятность того,.что будет сбит ровно один истребитель, равна 0,5. Требуется: 1) найти вероят- ность того, что в воздушном бою будет сбито не менее 35% бомбардиров- щиков; 2) оценить границы, в которых с вероятностью 0.9 будет заключено число сбитых истребителей. Решение. 1) Обозначим X — число сбитых бомбардировщиков; 50 а= X X,. 1=1 где Xt — число бомбардировщиков, сбитых в т-м элементарном бою. Ряд распределения величины X/ имеет вид; 0 I 0.6 0,4 т, =0.4; Dr = 0,4 -0,6 = 0,24; mr = 50 • 0,4 = 20; Ki xt <тг = /50-0,24 » 3,464. Применяя формулу (13.9.6) и полагая 3 =50 (или, чго в данном случае равно- сильно, р=со), а =17, находим: р <17 < л,=4 - ф> »«да- 2) Обозначим Y число сбитых истребителей: 50 г = У П. * = 1 где yt — число истребителей, сбитых в 1-м элементарном бою. Ряд распределения величины К/ имеет вид: 0 1 2 0,3 U.5 0.2
1361 ФОРМУЛЫ. ВЫРАЖАЮЩИЕ ЦЕНТРАЛЬНУЮ ПРЕДЕЛЬНУЮ ТЕОРЕМУ 311 Отсюда находим математическое ожидание и дисперсию величины Kf m^=0,9; £>^ = 0.49. Для величины F: ту = 50 • 0,9 = 45; Dy = 24,5; ау = 4,96. Определим границы участка, симметричного относительно ту = 45, в ко- торый с вероятностью 0,9 попадет величина У. Обозначим половину длины этого участка L. Тогда Р(1У-ту| <0 = 2Ф"^-)-1=0.9, Ф-(^) = 0.№ По таблицам функции находим то значение аргумента, для ко- торого Ф'(х) = 0,95; это значение приближенно равно х = 1,645, т. е. — = 1,645, «у откуда / = 8,14 к 8. Следовательно, с вероятностью около 0,9 можно утверждать, что число сбитых истребителей будет заключено в пределах ту ± I, т. е. в пределах от 37 до 53.
ГЛАВА 14 ОБРАБОТКА ОПЫТОВ 14-1- Особенности обработки ограниченного числа опытов. Оценки дли неизвестных параметров заиона распределения В главе 7 мы еже рассмотрели пскоюрые задачи млгемлтнчсскс статистики, относящиеся к обработке опытных данных. Это был главным образом задачи о нахождении законов распределения случай пых величин по результатам опытов. Чтобы найти закон распредели кия, нужно располагать достаточно обширным статистическим мак риалом, порядка нескольких сотен опытов (наблюдений). Однако и практике часто приходится иметь дело со статистическим материале весьма ограниченного объема—с двумя-тремя десятками наблюдеми! часто тажс меньше. Эго обычно связано с дороговизной и сложность! постановки каждого опыта. Такого ограниченного материала явно нт достаточно для того, чтобы найти заранее неизвестный закон распре деления случайной величины: но все же этот материал может бьп оГработав и использован для получения некоторых сведений о слу чайной величине. Например, на основе ограниченного статистического ма герца, ы можно определить—хотя бы ориентировочно — важнейшие числовые характеристики случайной величины: математическое ожпи пне. дисперсию иногда —высшие моменты. На практике часто бывает что вид закона р определения игвестен заранее/а требуется найти только псктгорые и а ра метры, от которых он зависит. Например если заранее известно, что закон распри деления случайной величины нормальный, то задача обработки сводится к определению двух ст параметров :п и з. Если заранее известно, что величина распредели! пэ закону Пуассона, то подлежит определению только один сю парг метр: математическое ожидание а Наконец, в некоторых задачах ни закона расиредс к-Инн iioor-iuc несуществен, а требуется знать толь/ ею чясл-:;:!е характеристики В данной главе чы рассмотрим ряд задач об определении не вестных параметров. от которых зависит закон распределения случ пий Bc.l i. ши, по ограниченному числу опытов.
14Ц ОСОБЕННОСТИ ОБРАБОТКИ ОГРАНИЧЕННОГО ЧИСЛА ОПЫТОВ 313 Прежде всего нужно отметить, что любое значение искомого параметра, вычисленное на основе ограниченного числа опытов, всегда будет содержать элемент случайности. Такое приближенное, случай- ное значение мы будем называть оценкой параметра. Например, оцен- кой для математического ожидания может служить среднее арифме- тическое наблюденных значений случайной величины в п независимых опытах. При очень большом числе опытов среднее арифметическое будет с большой вероятностью весьма близко к математическому ожиданию. Если же число опытов п невелико, то замена математиче- iKoro ожидания средним арифметическим приводит к какой-то ошибке. Эга ошибка в среднем тем больше, чем меньше число опытов. Так же будет обстоять дело и с оценками других неизвестных параметров. Любая из таких оценок случайна; при пользовании ею неизбежны сшибки. Желательно выбрать такую оценку, чтобы эти ошибки были Hj возможности минимальными. Рассмотрим следующую общую задачу. Имеется случайная вели- чина X, закон распределения которой содержит неизвестный параметр а. Требуется найти подходящую оценку для параметра а по результа- там п независимых опытов, в каждом из которых величина X при- вила определенное значение. Обозначим наблюденные значения случайной величины Xj, ........Хя. (14 1.1) 11ч можно рассматривать как п «экземпляров» случайной величины X, то есть п независимых случайных величин, каждая из которых рас- пределена по тому же закону, что и случайная величина X. Обозначим а оценку для параметра а. Любая оценка, вычисляемая на основе материала (14.1.1). должна представлять собой функцию величин Xv Х2. Хя. a = a(Xv Х2........Хп) (14.1.2) н. следовательно, сама является величиной случайной. Закон распре- деления а зависит, во-первых, от закона распределения величины X (и, в частности, от самого неизвестного параметра о); во-вторых, от числа опытов п. В принципе этот закон распределения может быть найден известными методами теории, вероятностей. Предъявим к оценке а ряд требований, которым она должна удо- влетворять, чтобы быть в каком-то смысле «доброкачественной» оценкой. Естественно потребовать от оценки а, чтобы при увеличении числа опытов п она приближалась (сходилась по вероятности) к параметру а, Стенка» обладающая таким свойством, называется состоятельной. Кроме того, желательно, чтобы, пользуясь величиной а вместо а, мы по крайней мере не делали систематической ошибки в сторону
314 ОБРАБОТКА ОПЫТОВ {ГЛ. 14 завышения или занижения» т. е. чтобы выполнялось условие АЦа] = в. (14.1.3) Оценка, удовлетворяющая такому условию, называется несмещенной. Наконец, желательно, чтобы выбранная несмещенная оценка обла- дала по сравнению с другими наименьшей дисперсией, т. е. D]fll = mln. (14.1.4) Оценка, обладающая таким свойством, называется эффективной. На практике не всегда удается удовлетворить всем этим требо- ваниям. Например, может оказаться, что, даже если эффективная оценка существует, формулы для ее вычисления оказываются слишком сложными, и приходится удовлетворяться другой оценкой, дисперсия которой несколько больше. Иногда применяются — в интересах про- стоты расчетов — незначительно смещенные оценки. Однако выбору оценки всегда должно предшествовать ее критическое рассмотрение со всех перечисленных выше точек зрения. 14.2. Оценки для математического ожидания и дисперсии Пусть имеется случайная величина X с математическим ожида- нием т и дисперсией D, оба параметра неизвестны. Над величиной X произведено п независимых опытов, давших результаты Хх, Х2, .... X п. Требуется найти состоятельные и несмещенные оценки для парамет- ров т н D. В качестве оценки для математического ожидания естественно предложить среднее арифметическое наблюденных значений (ранее мы его обозначали пГу. п т = т* = —-—. (14.2 1) Нетрудно убедиться, что эта оценка является состоятельной: согласно закону больших чисел, при увеличении п величина т схо- дится по вероятности к т. Оценка т является также и несмещенной, так как л V, т М[т]=-^— — т. (14.2.2) Дисперсия этой оценки равна: О[т| = ^О. (14.2.3)
M.2J ОЦЕНКИ ДЛЯ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ И ДИСПЕРСИИ 315 Эффективность или неэффективность оценки зависит от вида закона распределения величины X. Можно доказать, что если вели- чина X распределена по нормальному закону, дисперсия (14.2.3) будет минимально возможной, т. е. оценка т является эффективной. Для других законов распределения это может быть и не так. Перейдем к оценке для дисперсии D- На первый взгляд наиболее естественной оценкой представляется статистическая дисперсия: 2 , (14.2.4) где Л m = . (14.2.5) Проверим, является ли эта оценка состоятельной. Выразим ее через второй начальный момент (по формуле (7.4.6) гл. 7): 2*? -----m2. (14.2.6) Первый член в правой части есть среднее арифметическое п на- блюденных значений случайной величины X2; он сходится по вероят- ности к 2И [X2J =а2 [XJ. Второй член сходится по вероятности к т2; вся величина (14.2.6) сходится по вероятности к величине а2 [X] —т2 — D. Это означает, что оценка (14.2.4) состоятельна. Проверим, является ли оценка D* также и несмещенной. Подста- вим в формулу (14.2.6) вместо т его выражение (14.2.5) и произ- ведем указанные действия:
ОБРАБОТКА ОПЫТОВ Найдем математическое ожидание величины (14.2.7): , в какой точке Тогда Так как дисперсия О' ие зависит от того начало координат, выберем его в точке tn. (14.2.8) выбрагь (14.2.9) Л1[х;|=Л1[х°|=О; i/i[x;]=«D. М|Х,Х/] = М1Х,Х;1 = ^ = 0- (14.2.10) ,1>пл /’rrPnvPT из того что опыты независимы. П° пХавТяС(14.2.9) и (14.2.10) в (.4.2.8), получим: M|D’1= '-—D (14.2.11) Отсюда видно, что величина D* не является несмещен- ной оценкой для D: ее математическое ожидание не равно I), а несколько меньше. Пользуясь оценкой D“ вместо дисперсии D, мы будем совершать некоторую систематическую ошибку в меньшую сторону. Чтобы ликвидировать это смещение, достаточно ввести по- п правку, умножив величину D па Получим: V (Х'-т? V (х,._,л)> £)* = ________________— = —_______________. п — I п п — I II — 1 Такую «исправленную» статистическую дисперсию мы и выбкрем и качестве оценки для D: V (Xt— /л)« о- ----------------• (14.2.12) п _5_ стремится к единице при i то оценка Ь также буле г состоятельной') л in, тгппГлб-е формулы (14-2.12) бывает удобнее в которой статистическая Так как множитель — л — 1 а оценка D* состоятельна. --- На практике часто вместо применять другую, равносильную ей, ') Оценка Ь для дисперсии не является эффективной. Однако в случае нормального распределения она является «асимпготически эффективной», то есть при увеличении п отношение ее дисперсии к минимально возможной неограниченно приближается к единице. М3] ДОВГРИТЕЛЬНЫП ИНТЕГРАЛ ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ 317 дисперсия выражена через второй начальный момент: Г VX1 1 МЧ------------"ЧЛ (И.2ЛЗ) При больших значениях п, естественно, обе оценки—смещенная £)* и несмещенная D — будут различаться очень мало и введение поправочного множителя теряет смысл. Таким образом, мы пришли к следующим правилам обработки ограниченного по объему статистического материала. Если даны значения jq. х,....vn. принятые в п независимых опытах случайной величиной X с неизвестными математическим ожи- данием т н дисперсией D, то для определения этих параметров сле- дует пользоваться приближенными значениями (оценками): (14.2.14) 14.3. Доверительный интервал. Доверительная вероятность В предыдущих пэп° мы рассмотрели вопрос об оценке неизвест- ного параметра а одним числом. Такая оценка называется «точечной». В ряде задач требуется не только найти для параметра а подходя- щее численное значение, но и оценить его точность и надежность. Требуется знать — к каким ошибкам может привести замена пара- метра а его точечной оценкой а и с какой степенью уверенности можно ожидать, что эти ошибки не выйдут за известные пределы? Такого рода задачи особенно актуальны при малом числе наблю- дений, когда точечная оценка а в значительной мере случайна и приближенная замена а на а может привести к серьезным ошибкам. Чтобы дать представление о точности и надежности оценки а. и математической статистике пользуются так называемыми дове- рительными интервалами и доверительными вероят- ностями.
318 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 Пусть для параметра а получена из опыта несмещенная оценка а. Мы хотим оценить возможную при этом ошибку. Назначим некоторую достаточно большую вероятность р (например, р=0,9, 0,95 или 0,99) такую, что событие с вероятностью р можно считать практически достоверным, и найдем такое значение е, для которого Р([а — в|<е) = р. (14.3.1) Тогда диапазон практически возможных значений ошибки, возникаю- щей при замене а на а, будет ±е; большие по абсолютной величине ошибки будут появляться только с малой вероятностью а=1—р. Перепишем (14.3.1) в виде: Р(а~ в<о < a-f-E) = p. (14.3.2) Равенство (14.3.2) означает, что с вероятностью р неизвестное зна- чение параметра а попадает в интервал /р = (а—е; с-|-е). (14.3.3) При этом необходимо отметить одно обстоятельство. Ранее мы не- однократно рассматривали вероятность попадания случайной величины в заданный неслучайный интервал. Здесь дело обстоит иначе: вели- чина а не случайна, зато случаен интервал /р. Случайно его положение на осн абсцисс, определяемое его центром а; случайна вообще и длина интервала 2е, так как величина е вычисляется, как правило, по опытным данным. Поэтому в данном случае лучше будет толковать величину р не как вероятность «попадания» точки а в ин- тервал /р, а как вероятность того, что случайный интервал /р на- кроет точку а (рис. 14.3.1). ________________________. -----(-----------„ У----------------е Рис. 14.3.1. Вероятность р принято называть доверительной вероятностью, а интервал ^—доверительным интервалом '). Границы интервала/р: — е и а2 = с-|-е называются доверительными границами. Дадим еще одно истолкование понятию доверительного интервала: его можно рассматривать как интервал значений параметра а, совме- стимых с опытными данными и не противоречащих им. Действительно, если условиться считать событие с вероятностью *) На рис. 14.3.1 рассматривается доверительный интервал, симметрич- ный относительно а. Вообще, как мы увидим дальше, это не обязательно.
14.3] доверительный интервал, доверительная вероятность 319 в=1—р практически невозможным, то те значения параметра с. для которых |а — а | > е, нужно признать противоречащими опыт- ным данным, а те, для которых | а — а | < е, — совместимыми с ними. Перейдем к вопросу о нахождении доверительных границ ах и а2. Пусть для параметра а имеется несмещенная оценка а. Если бы нам был известен закон распределения величины а, задача нахожде- ния доверительного интервала была бы весьма проста: достаточно было бы найти такое значение е, для которого Р(|о —а| <е) = ₽. Затруднение состоит в том, что закон распределения оценки а зависит от закона распределения величины X и, следозательио, от его неизвестных параметров (в частности, и от самого пара- метра д). Чтобы обойти это затруднение, можно применить следующий грубо приближенный прием: заменить в выражении для е неизвестные пара- метры их точечными оценками. При сравнительно большом числе опытов п (порядка 20-+-30) этот прием обычно дает удовлетвори- тельные по точности результаты. В качестве примера рассмотрим задачу о доверительном интервале для математического ожидания. Пусть произведено п независимых опытов над случайной величи- ной X, характеристики которой — математическое ожидание т и дис- персия D — неизвестны. Для этих параметров получены оценки: £(х,-тр m = (14.3.4) Требуется построить доверительный интервал /р, соответствующий доверительной вероятности 3- ДЛ*> математического ожидания т вели- чины X. Прн решении этой задачи воспользуемся тем, что величина т представляет собой сумму п независимых одинаково распределенных случайных величин Xt, и, согласно центральной предельной теореме, при достаточно большом п ее закон распределения близок к нормаль- ному. На практике даже при относительно небольшом числе слагае- мых (порядка 10 20) закон распределения суммы можно прибли- женно считать нормальным. Будем исходить из того, что величина т распределена по нормальному закону. Характеристики этого закона — математическое ожидание и дисперсия — равны соответственно т я (си. гл. 13 п°13.3). Предположим, что величия: D нам известна.
320 ОБРАБОТКА ОПЫТОВ {ГЛ 1< и найдем такую величину е^, для которой P(|m —m|<es)=p. (14.3.5) ^Применяя формулу (6.3.5) главы 6, выразим вероятность в левой час гм (14.3.5) через нормальную функцию распределения P(|m —т| < е.,) = 2Ф'— 1. (14.3.6) где а~ — |/ — среднее квадратическое отклонение оценки т. Из уравнения находим значение е₽: Ep = o-Mg<I.'(l + ^). (14.3.7) где ат£Ф*(х)— функция, обратная Ф*(л), т. е. такое значение аргу- мента, при котором нормальная функция распределения равна х. Дисперсия D. через которую выражена величина о-, нам в точ- ности не известна; в качестве се ориентировочного значения можно воспользоваться оценкой D (14.3.4; и положить приближенно; , f jj (14.3.8, Таким образом, приближенно решена задача посгроенаа доверитель- ною интервала, который ранен: /э = {щ — е^; т + Ер), (14.3.9) где s4 определяется формулой (14.3.7). Чтобы избежать при вычислении е? обратного пи i гр полирования в таблицах функции Ф*(дс), удобно составить специальную таблицу (см. табл. 14.3.1), где приводятся значении величины в зависимости от р. Величина t. опргдел юг для плрм i тчнэго закона чпел» средних квадратических оисллнсний. которое нужно отложить вправо и влево от центра рассеивании для того, чтобы вероятность попадания в полученный участок была рампа р. Через величину доверительный ритереал выражается в виде:
14.3] ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ. ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ 321 Таблица 14 3.1 э '₽ ₽ 's ₽ 1 1 '8 0,80 1,282 0,86 1.475 I 0,91 1,694 0,97 2,169 0,81 1,310 0,87 1,513 0,92 1,750 0,98 2,325 0.82 1.340 0,88 1,554 0,93 1,810 0,99 2,576 0,83 1,371 0,89 1,597 0.94 1 880 0,9973 3,000 0,84 0,85 1,404 1,439 0,90 1,643 1 0,95 0,96 1,960 2,053 0,999 3.290 Пример 1. Произведено 20 опытов над величиной Л; результаты приведены в таблице 14.3.2. Таблица 14.3.2 t xl t . 1 . Il i *1 1 10,5 6 10,6 1 11 10,6 16 10,9 2 10.8 7 10,9 12 11.3 17 10,8 3 П.2 8 11,0 13 10,5 18 10,7 4 10,9 9 10,3 14 10,7 19 10,9 5 10,4 10 10,8 15 10,8 20 11,0 Требуется найти оценку т для математического ожидания т величины X и построить доверительный интервал, соответствующий доверительной ве- роятности = 0,8. Решение. Имеем: 20 '“= 2о2Х'=10’78- i=l Выбрав за начало отсчета х=10, по третьей формуле (14.2.14) находим несмещенную оценку D: D = (-^—°’да)т8- = 0да; = I / - = 0.0564. М I/ п По таблице 14.3.1 находим = 1,282; ‘ <й =. t <т~ = 0.072. р Р ОТ Доверительные границы: mi = m — 0,072=10,71; /н2 = 1П + 0,072 = 10,85. Доверительный интервал; /р = (10,71; 10,85). Значения параметра т, лежащие в этом интервале, являются совмести- мыми с опытными данными, приведенными в таблице 14.3.2. К Теория вероятностей
322 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 Аналогичным способом может быть построен доверительный интервал н для дисперсии. Пусть произведено п независимых опытов над случайной величи- ной X с неизвестными параметрами т и D. и для дисперсии D по- лучена несмещенная оценка: 2 (л,-и)» —1---- (14.3.11) где п У Требуется приближенно построить доверительней интервал для дисперсии. Из формулы (14.3.11) видно, что величина D представляет собой IX, —т}2 о сумму п случайных величин вида ^ — 1 * Эти величнны ,1е являются независимыми, так как в любую из них входит величина т. зависящая от всех остальных. Однако можно показать, что при уве- личении п закон распределения их суммы тоже приближается к нор- мальному. Практически при п = 20 -е- 30 он уже может считаться нормальным. Предположим, что это так, и найдем характеристики этого закона: математическое ожидание и дисперсию. Так как опенка D — несме- щенная. то Л1 [£)]=£). Вычисление дисперсии D [D] связано со сравнительно сложным» выкладками, поэтому приведем ее выражение без вывода: = (14.3.12) где —четвертый центральный момент величины X. Чтобы воспользоваться этим выражением, нужно подставить в него значения и D (хцтя бы приближенные). Вместо D можно воспользоваться его оценкой D. В принципе четвертый централь- ный момент тоже можно заменить его оценкой, например вели- чиной вида: 2 №-й)< . (14.3.13)
И.Э] ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ. ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ 323 но такая замена даст крайне невысокую точность, так как вообще при ограниченном числе опытов моменты высокого порядка опреде- ляются с большими ошибками. Однако на практике часто бывает, что вид закона распределения величины X известен заранее: неиз- вестны лишь его параметры. Тогда можно попытаться выразить через D. Возьмем наиболее часто встречающийся случай, когда величина X распределена по нормальному закону. Тогда ее четвертый централь- ный момент выражается через дисперсию (см. гл. 6 н° 6.2): Н = 3£Я. и формула (14.3.12) дает или D ID] == (14.3.14) Заменяя в (14.3.14) неизвестное D его оценкой D, получим: = (14.3.15) откуда = (14.3.16) Момент р4 можно выразить через D также и в некоторых других случаях, когда распределение величины X не является нормальным, но вид его известен. Например, для закона равномерной плотности (см. главу 5) имеем: где (а. р) — интервал, на котором задан вакон. Следовательно, p.4=l,8D2. По формуле (14.3.12) получим: отк}да находим приближенно ” /'пи-О (*4-3|7>
324 ОБРАБОТКА ОПЫТОВ (ГЛ. Н В случаях, когда вид закона распределения величины X неизве- стен, при ориентировочной оценке величины Од рекомендуется все же пользоваться формулой (14.3.16), если нет специальных оснований считать, что этот закон сильно отличается от нормального (обладает ваметиым положительным нлн отрицательным эксцессом). Если ориентировочное значение а- тем или иньГм способом полу- чено. то можно построить доверительный интервал для дисперсии, аналогично тому, как мы строили его для математического ожидания: = (14.3.18) где величина в зависимости от заданной вероятности р находится по таблице 14.3.1. Пример 2. Найти приближенно 80%-й доверительный интервал для дисперсии случайной величины X в условиях примера 1, если известно, что величина X распределена по закону, близкому к нормальному. Решение. Величина остается той же, что в примере 1: ^=1,282. По формуле (14.3.16) ag = • 0,064 0,0207. По формуле (14.3.18) находим доверительный интервал: /г (0,043; 0,085). Соответствующий интервал значений среднего квадратического отклонения: (0,21; 0.29). 14.4. Точные методы построения доверительных интервалов для параметров случайной величины, распределенной по нормальному закону В предыдущем п° мы рассмотрели грубо приближенные методы построения доверительных интервалов для математического ожидания и дисперсии. В данном п° мы дадим представление о точных мето- дах решения той же задачи. Подчеркнем, что для точного нахожде- ния доверительных интервалов совершенно необходимо знать заранее внд закона распределения величины X. тогда как для применения приближенных методов это не обязательно. Идея точных методов построения доверительных интервалов сво- дится к следующему. Любой доверительный интервал находится из условия, выражающего вероятность выполнения некоторых неравенств, в которые входит интересующая нас оценка а. Закон распределения оценки а в общем случае зависит от самих неизвестных параметра величины X. Однако иногда удается перейти в неравенствах от слу-
14 41 МЕТОДЫ ПОСТРОЕНИЯ ДОВЕРИТЕЛЬНЫХ ИНТЕРВАЛОВ 325 чайной величины а к какой-либо другой функции наблюденных зна- чений X|t Xv ...» Х„. закон распределения которой не зависит от неизвестных параметров, а зависит только от числа опытов п и от вида закона распределения величины X. Такого рода случайные величины играют большую роль в математической статистике; они наиболее подробно изучены для случая нормального распределения величины X. Например, доказано, что при нормальном распределении вели- чины X случайная величина (14.4.1) »----------- подчиняется так называемому закону распределения Стьюдента сп — 1 степенями свободы; плотность этого закона имеет вид Д.-1(0=°—' ( +я=т) ’• О4-4-2) K0i-l)«r(iT±) ' " *' где Г(х) — известная гамма-функция: Г(х) —J иЛ~1е~ади. о Доказано также, что случайная величина V = (14.43) имеет «распределение у2» с п — 1 степенями свободы (см. гл. 7, стр. 145), плотность которого выражается формулой Ал-1(®)== при v > О, при V < 0. (14.4.4) Не останавливаясь на выводах распределений (14.4.2) и (14.4.4), покажем, как их можно применить при построении доверительных интервалов для параметров т и Ь-
326 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 Пусть произведено п независимых опытов над случайной вели- чиной X. распределенной по параметрами т и D. Для этих нормальному закону с неизвестными параметров получены оценки т = 1 --1— Требуется построить доверительные интервалы для обоих параметров, соответствующие доверительной вероятности р. Построим сначала доверительный интервал для математического ожидания. Естественно этот интервал взять симметричным относи- тельно т; обозначим eg половину длины интервала. Величину нужно выбрать так, чтобы выполнялось условие P(|w—т|<е₽) = ₽. (14.4.5) Попытаемся перейти в левой части равенства (14.4.5) от случай- ной величины т к случайной величине 7, распределенной по закону Стьюдента. Для этого умножим обе части неравенства |/п — т| <е. на положительную величину : Уб млн, пользуясь обозначением (14.4.1), /4 (14.4.6) Найдем такое число /g, что />(|7'1</р) = ₽. Величина найдется из условия -/р Из формулы (14.4.2) видно, что 5Я_,(/) — четная этому (14.4.8) дает 2 f S„-, (/)<» = ?. (14.4.7) (14.4.8) функция; по- (14.4.9)
14.41 МЕТОДЫ ПОСТРОЕНИЯ ДОВЕРИТЕЛЬНЫХ ИНТЕРВАЛОВ 327 Равенство (14.4.9) определяет величину в зависимости от р. Если иметь в своем распоряжении таблицу значений интеграла W(.v) = 2 О то величину можно найти обратным интерполированием в этой таблице. Однако удобнее составить заранее таблицу значений Такая таблица дается в приложении (см. табл. 5). В этой таблице приведены значения в зависимости от доверительной вероятности 3 и числа степеней свободы п — 1. Определив по таблице 5 н по- лагая eS = ^Zv- (14 4 10) мы найдем половину ширины доверительного интервала и сам интервал m + (14411) Пример I. Произведено 5 независимых опытов над случайной вели- чиной X, распределенной нормально с неизвестными параметрами тис. Результаты опытов приведены в таблице 14.4.1. По таблице 5 приложения для п — 1 =4 и £ = 0,9 находим = 2,13, откуда ч-',/-£в2-45- Доверительный интервал будет /^ = (m —13; m + eJ = (—2.05; 2,85).
328 ОБРАБОТКА ОПЫТОВ (ГЛ Н Пример 2. Для условий примера 1 п° 14.3, предполагая величину X распределенной нормально, найти точный доверительный интервал. Решение. По таблице 5 приложения находим при п — 1 = 19 и 0 = 0,8 fp = 1,328; отсюда е0 = Ц ~ » 0,0704. Сравнивая с решением примера 1 п° 14.3 (е3 = 0,072), убеждаемся, что расхождение весьма незначительно. Если сохранить точность до второго знака после запятой, то доверительные интервалы, найденные точным и при- ближенным методами, совпадают: /0 = (10,71; 10,85). Перейдем к построению доверительного интервала для дисперсии. Рассмотрим несмещенную оценку дисперсии 2 ь о Рис. 14.4.1, н выразим случайную величину D через величину V (14.4.3), имеющую распределение у? (14.4.4): D=*V-^(14.4.12) Зная закон распределения величины V, можно найти интервал в который она попадает с заданной вероят- ностью р. Закон распределения kn_v(v) величины И име- ет вид изображенный на рис. 14.4.1. Возникает вопрос: как выбрать интервал Если бы закон рас- пределения величины V был симметричным (как нормальный закон или распределение Стьюдента), естественно было бы взять интервал /р симметричным относительно математического ожидания. В данном случае закон kn_x(v) несимметричен. Условимся выбнрать интервал так. чтобы вероятности выхода величины V за пределы интервала вправо и влево (заштрихованные площади на рис. 14.4.1) были оди- наковы и равны а 1—0 2 ” 2
II4] МЕТОДЫ ПОСТРОЕНИЯ ДОВЕРИТЕЛЬНЫХ ИНТЕРВАЛОВ 329 Чтобы построить интервал с таким свойством, воспользуемся таблицей 4 приложения: в ней приведены числа у? такие, что P(V>z2) = p для величины V, имеющей /^-распределение с г степенями свободы. В нашем случае г==л— 1. Зафиксируем г = п—1 и найдем в со- ответствующей строке табл. 4 два значения у2: одно, отвечающее вероятности — другое—вероятности р2 = 1-----------«^.Обозначим эти значения н Интервал fp имеет /2 своим левым, а /2— правым конном. Теперь найдем по интервалу /р искомый доверительный интер- вал /р для дисперсии с границами Dx и D2. который накрывает точку D с вероятностью 0: <О<О2) = р. Построим такой интервал /р=»(О:. £)2), который накрывает точку D тогда и только тогда, когда величина V попадает в интервал /р. Покажем, что интервал удовлетворяет этому условию. Действительно, неравенства ' О Г). Ъ(п—\) р. I2 равносильны неравенствам V<k?; V>x’. а эти неравенства выполняются с вероятностью 0. Таким образом, доверительный интервал для дисперсии найден и выражается форму- лой (14.4.13). Пример 3. Найти доверительный интервал для дисперсии в условиях примера 2 п° 14.3, если известно, что величина X распределена нормально. Решение. Имеем ₽ = 0,8; а = 0,2; “ = 0,1. По таблице 4 приложения находим при г — п — 1 =19 для р,= ~ = 0,1 /? = 27,2; для р2 = 1 — ~ -- 0,9 /2 = 1t65.
330 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 По формуле (14.4.13) ваходим доверительный интервал для дисперсии /р = (0,045; 0,104). Соответствующий интервал для среднего квадратического отклонения: (0,21; 0,32). Этот интервал лишь незначительно превосходит полученный в примере 2 п° 14.3 приближенным методом интервал (0,21; 0,29). 14.5. Оценка вероятности по частоте На практике часто приходится оценивать неизвестную вероят- ность р события А по его частоте р“ в п независимых опытах. Эта задача близко примыкает к рассмотренным в предыдущих п°п°. Действительно, частота события Яви независимых опытах есть не что иное, как среднее арифметическое наблюденных значений вели- чины X, которая в каждом отдельном опыте принимает значение 1, если событие А появилось, н 0. если не появилось: Р' = -~----- (14.5.1) Напомним, что математическое ожидание величины X равно р\ ее дисперсия pq. где q = 1 — р. Математическое ожидание среднего арифметического также равно р М [р*] = р. (14.5.2) т. е. оценка р* для р является несмещенной. Дисперсия величины р* равна О[р’]=^-. (14.5.3) Можно доказать, что эта дисперсия является минимально возмож- ной. т. е. оценка р* для р является эффективной. Таким образом, в качестве точечной оценки для неизвестной ве- роятности р разумно во всех случаях принимать частоту р\ Возни- кает вопрос о точности и надежности такой оценки, т. е. о Построе- нии доверительного интервала для вероятности р. Хотя эта задача и представляет собой частный случай ранее рассмотренной задачи о доверительном интервале для математического ожидания. $се же целесообразно решать ее отдельно. Специфика здесь в том. что величина X — прерывная случайная величина только с двумя возможными значениями: 0 н 1. Кроме того, ее математи- ческое ожидание р и дисперсия pq = р (1 — р) связаны функцио- нальной зависимостью. Это упрощает задачу построения доверитель- ного интервала.
Ц.51 ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 331 Рассмотрим сначала наиболее простой случай, когда число опы- тов п сравнительно велико, а вероятность р не слишком велика и не слишком мала. Тогда можно считать, что частота события р* есть случайная величина, распределение которой близко к нормаль- ному ’). Расчеты показывают, что этим допущением можно пользо- ваться даже прн не очень больших значениях п: достаточно, чтобы обе величины пр и nq были больше четырех. Будем исходить из того, что эти условия выполнены и частоту р* можно считать рас- пределенной по нормальному закону. Параметрами этого закона будут: т„. = р; = (14.5.4) Предположим сначала, что величина р нам известна. Назначим дове- рительную вероятность 0 и найдем такой интервал (р—ер. р-рер). чтобы величина р’ попадала в этот интервал с вероятностью 0: • —/>1<ер) = ₽- (14.5.5) Так как величина р* распределена нормально, то Р(\Р’~ р\ <=₽) = 2Ф- -1 =₽, откуда, как и в п° 14.3, es = Op.arg®' где arg Ф* — функция, обратная нормальной функции распределения Ф*. Для определения 0, как и в п° 14,3. можно обозначить ф-(-Ш-). Тогда = (14.5.6) где определяется нз таблицы 14.3.1. Таким образом, с вероятностью 0 можно утверждать, что \р’—р1<%]/^- (14.5.7) Фактически величина р нам неизвестна; однако неравенство (14.5.7) будет иметь вероятность 0 независимо от того, известна нам или неизвестна вероятность р. Получив из опыта конкретное значение частоты р*. можно, пользуясь неравенством (14.5.7), найти интервал/р, который с вероятностью 0 накрывает точку р. Действительно. ') Частота события при и опытах представляет собой прерывную слу- чайную величину; говоря о близости ее закона распределения к нормаль- ному, мы имеем в виду функцию распределения, а ие плотность.
332 ОБРАБОТКА ОПЫТОВ 1ГЛ. 14 преобразуем это неравенство к виду (Р* — Р)2 < Р (1 — Р) (14.5.8) и дадим ему геометрическую интерпретацию. Будем откладывать по осн абсцисс частоту р*. а по оси ординат — вероятность р (рис. 14.5.1). Геометрическим местом точек, координаты которых р* и р удовле- творяют неравенству (14.5.8). будет внутренняя часть эллипса, про- ходящего через точки (0. 0) и (1. 1) и имеющего в этих точках касательные, параллель- ные осн Ор\ Так как вели- чина р* не может быть ни отрицательной, ни большей единицы, то область D, со- ответствующую неравенству (14.5.8), нужно еще ограни- чить слева н справа прямыми р* = 0 н р* = 1. Теперь можно для любого значения р*. полу- Р“ ченного из опыта, построить доверительный интервал /р, ко- торый с вероятностью ₽ накроет неизвестное значение р. Для этого проведем через точку р* прямую, параллельную оси ординат; на этой прямой границы области D отсекут доверительный интервал /p = (plt р2). Действительно, точка А1 со случайной абсциссой р* и неслучайной (но неизвестной) ординатой р с вероятностью р попадет внутрь эллипса, т. е. интервал /р с вероятностью р накроет точку р. Размеры и конфигурация «доверительного эллипса» зависят от числа опытов п. Чем больше л, тем больше вытянут эллипс и тем уже доверительный интервал. Доверительные границы pt и р2 можно найти нз соотношения (14.5.8), заменив в нем знак неравенства равенством. Решая получен- ное квадратное уравнение относительно р, получим два корня:
M.BJ ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 333 Доверительный интервал для вероятности р будет <,=<А. Pit- Пример 1. Частота события А в серии нз 100 опытов оказалась ^>* = 0.78. Определить 90%-й доверительный интервал для вероятности р со- бытия Л. Решение. Прежде всего проверяем применимость нормального закона; для этого оценим величины пр и nq. Полагая ориентировочно р » р\ получим пр st пр* = 78; nq st п (1 — р*) = 22. Обе величины значительно больше четырех; нормальный закон применим. Из таблицы 14.3.1 для ₽=0,9 находим 1,643. По формулам (14.5.9) имеем pt == 0.705; р2 = 0.840; /р = (0,705; 0.840). „ 1 *1 Заметим, что при увеличении л величины ~ и в (14.5.9) стремвтся к нулю; в пределе формулы принимают ₽.='•-'Yzn=3- ₽,=₽•+/,/ZSEH. Эти формулы могут быть получены и непосредственно, если воспользоваться приближенным способом построения доверительного интервала для математического ожидания, данным в п° 14.3. Форму- лами (14.5.10) можно пользоваться при больших п (порядка сетей), если только вероятность р не слишком велика н не слишком мала (например, когда обе величины пр и nq порядка 10 или более). Пример 2. Произведено 200 опытов; частота события А оказалась р* = 0,34. Построить 85%-й доверительный интервал для вероятности собы- тия приближенно (по формулам (14.5.10)). Сравнить результат с точным, соответствующим формулам (14.5.9). Решение. ₽ = 0,о5; по таблице 14.3.1 находим 1,439. Умножая его на _________ уЛ » 0,0335, получим «р j/ и 0,048, откуда находим приближенно доверительный интервал /р я (0,292; 0,388). По формулам (14.5.9) найдем более точные значения pi~ 0,294; />s = 0,389, которые почти не отличаются от приближенных. формулах вид (14.5.10)
334 ОБРАБОТКА ОПЫТОВ [ГЛ. И Выше мы рассмотрели вопрос о построении доверительного интер- вала для случая достаточно большого числа опытов, когда частоту можно считать распределенной нормально. Прн малом числе опытов (а танже если вероятность р очень велика илн очень мала) таким допущением пользоваться нельзя. В этом случае доверительный ин- тервал строят, исхода не из приближенного, а из точного закона распределения частоты. Нетрудно убедиться, что это есть биномиаль- ное распределение, рассмотренное в главах 3 и 4. Действительно, число появлений события Л в я опытах распределено по биномиальному закону: вероятность того, что событие А появится ровно т раз, равна (14.5.11) а частота р* есть не что иное, как число появлений события, делен- ное на число опытов. Исходя из этого распределения, можно построить доверительный интервал /р аналогично тому, как мы строили его, исхода из нор- мального закона для больших п (стр. 331). Предположим сначала, что вероятность р нам известна, и найдем интервал частот р*. р*. в который с вероятностью р=1—а попадет частота события р*. Для случая большого п мы пользовались нормальным законом рас- пределения и брали интервал симметричным относительно математиче- ского ожидания. Биномиальное распределение (14.5.11) не обладает симметрией. К тому же (в связи с тем, что частота — прерывная случайная величина) интервала, вероятность попадания в который в точ- ности равна р, может и не существовать. Поэтому выберем в качестве интервала р*. р* самый малый интервал, вероятность попадания левее которого и правее которого будет больше Аналогично тому, как мы строили область D для нормального закона (рнс. 14.5.1). можно будет для каждого п н заданного р по- строить область, внутри которой значение вероятности р совместимо с наблюденным в опыте значением частоты р". На рнс. 14.5.2 изображены кривые, ограничивающие такие области для различных п при доверительной вероятности р — 0,9. По оси абсцисс откладывается частота р*. по осн ординат—вероятность р. Каждая пара кривых, соответствующая данному п, определяет довери- тельный интервал вероятностей, отвечающий данному значению частоты. Строго говоря, границы областей должны быть ступенчатыми (ввиду прерывности частоты), но для удобства они изображены в виде плавных кривых. Для того чтобы, пользуясь такими кривыми, найтн доверительный интервал/р, нужно произвести следующее построение (см рис. 14.5.2): по осн абсцисс отложить наблюденное в опыте значение частоты р*,
74.5] ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 335 провести через эту точку прямую, параллельную оси ординат, и отметить точки пересечения прямой с парой кривых, соответствующих данному числу опытов п; проекции этих точек на ось ординат н дадут границы р2 доверительного интервала /р. Рис. 14.5.2. При заданном п кривые, ограничивающие «доверительную область», определяются уравнениями: п 2 С?р"(1= (14.5.12) т-л к ^С^рт(1-р)"-" = Л, (14.5.13) т =0 где k — число появлений события: k = пр*. Разрешая уравнение (14.5.12) относительно р. можно найти нижнюю границу pt «доверительной области»; аналогично из (14.5.13) можно найти р2. Чтобы не решать эти уравнения каждый раз заново, удобно заранее ватабулирова-гъ (или представить графически) решения для нескольких
336 обработка опытов [гл. н типичных значений доверительной вероятности р. Например, а книге И. В. Дунина-Барковского и Н- В. Смирнова «Теория вероят- ностей н математическая статистика в технике» имеются таблицы рх и р2 для р = 0,95 и р = 0,99, Из той же кннгн заимствован график рнс. 14.5.2. Пример 3. Найти доверительные границы р} и р2 для вероятности события, если в 50 опытах- частота его оказалась р* = 0.4. Доверительная вероятность 0 = 0,9. Решение. Построением (см. пунктир на рис. 14.5.2) для р* = 0,4 и п = 50 находим: pi га 0,28; р2 га 0,52. Пользуясь методом доверительных интервалов, можно приближенно решить и другой важный для практики вопрос: каково должно быть число опытов п для того, чтобы с доверительной вероятностью р ожидать, что ошибка от замены вероятности частотой не превзойдет заданного значения? Прн решении подобных задач удобнее не пользоваться непосред- ственно графиками типа рис. 14.5.2, а перестроить нх, представив доверительные границы как функции от числа опытов п. Пример 4. Проведено 25 опытен, в которых событие А произошло 12 раз. Найти ориентировочно число опытов п, которое понадоб itch для того, чтобы с вероятностью ₽ = 0,9 ошибка от замены вероятности частотой не превзошла 20%. Решение. Определяем предельно допустимую ошибку: Д = 0,2 - 0,48 = 0,096 га 0,1. Пользуясь кривыми рис. 14.5.2, построим новый график: по осн абсцисс отложим число опытов п, по оси ординат —• доверительные границы для вероят- ности (рис. 14.5.3). Средняя прямая, параллельная оси абсцисс, соответствует
IMj ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 337 наблюденной частоте событии />* = = 0,48. Выше и ниже прямой р= р*~ = 0.48 проведены кривые р, (п) и р2(п), изображающие нижнюю и верхнюю доверительные границы в зависимости от п. Область между кривыми, опре- дешющая доверительный интервал, заштрихована В непосредственной бли- зости от прямой р = 0.48 двойной штриховкой показана более узкая область 20%-й допустимой ошибки. Из рис. 14-5.3 видно, что ошибка падает до допустимой величины прн числе опытов п порядка 100. Заметим, что после выполнения потребного числа опытов может понадобиться новая проверка точности определения вероятности по частоте, так как будет получено а общем случае уже другое значение частоты р*, отличное от наблюденного в ранее проведенных опытах. При этом может оказаться, что число опытов все еще недостаточно для обеспечения необходимой точности, и его придется несколько увеличить. Однако первое приближение, полученное описанным выше методом, может служить для ориентировочного предварительного пла- нирования серин опытов с точки зрения требуемого на них времени, денежных затрат и т. д. На практике иногда приходится встречаться со своеобразной зада- чей определения доверительного интервала для вероятности события, когда полученная из опыта частота равна нулю. Такая задача обычно связана с опытами, в которых вероятность интересующего нас события очень мала (нлн, наоборот, очень велика—тогда мала вероятность противоположного события). Пусть, например, проводятся испытания какого-то изделия на без- отказность работы. В результате испытаний изделие не отказало ни разу. Требуется найти максимальную практически возможную вероят- ность отказа. Поставим эту задачу в общем виде. Произведено п независимых опытов, нн в одном из которых событие А не произошло. Задана доверительная вероятность р, требуется построить доверительный интервал для вероятности р события А, точнее — найти его верхнюю границу р2> так как нижняя рг, естественно, равна нулю. Поставленная задача является частным случаем общей задачи о доверительном интервале для вероятности, но ввиду своих особен- ностей заслуживает отдельного рассмотрения. Прежде всего, прибли- женный метод построения доверительного интервала (на основе замены закона распределения частоты нормальным), изложенный в начале данного п°, здесь неприменим, так как вероятность р очень мала. Точный метод построения доверительного интервала на основе бино- миального распределения в данном Случае применим, но может быть существенно упрощен. Будем рассуждать следующим образом. В результате п опытов наблюдено событие В, состоящее в том, что А не появилось ни разу. Требуется найти максимальное значение р = р2, которое «совместимо» с наблюденным в опыте событием В. если считать
338 ОБРАБОТКА ОПЫТОВ (ГЛ. и «несовместимыми» с В те -значения р. для которых вероятность события В меньше, чем а = 1—р. Очевидно, для любой вероятности р события А вероятность наблюденного события В равна Р(В)=(1~р)л. Полагая Р(В) = а, получим уравнение для р2: откуда (1-р2)" = 1-₽. (14.5.14) р2= !-"/!=₽. (14.5 15) Пример 5. Вероятность р самопроизвольного срабатывания взрыва- теля при падении снаряда с высоты Л неизвестна, но предположительно весьма мала. Произведен) 100 опытов, в каждом из которых снаряд роняли с высоты Л, но ив в одном опыте взрыватель не сработал. Определить верхнюю границу р2 9096-го доверительного интервала для вероятности р. Решение. По формуле (14.5.15) 100 и» р, = 1— К1— 0,9 = 1— Ко.1. 100 __ 1g /0,1 = 0.011g 0,1 = 1,9900; 100___ /О,1 ® 0.977; р2 = 1 — 0.977 = 0,023. Рассмотрим еще одну задачу, связанную с предыдущей. Событие А с малой вероятностью р не наблюдалось в серии из п опытов ии разу. Задана доверительная вероятность р. Каково должно быть число опытов п для того, чтобы верхняя доверительная граница для вероятности события была равна заданному значению р2? Решение сразу получается из формулы (14.5.14): т Ig(l-P) в(1— Л> ‘ Пример 6. Сколько раз нужно убедиться в безотказной работе изде- лия для того, чтобы с гарантией 95% утверждать, что в практическом прд- менении оно будет отказывать не более чем в 5% всех случаев? Решение. По формуле (14.5.16) При р = 0,95, р2 ~ 0,05 имеем: 1g 0,05 _о. п = ~ 58,4. Ig 0.9j Округляя в большую сторону, получим: (14.5.16) и = 59. Имея в виду ориентировочный характер всех расчетов подобного рода, можно предложить вместо формул (14.5.15) и (14.5.16) более простые приближенные формулы. Их можно получить, предполагая.
М.6] ОЦЕНКИ ДЛЯ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛИЧИН 339 что число появлений события А при п опытах распределено по закону Пуассона с математическим ожиданием а=пр. Это предположение приближенно справедливо в случае, когда вероятность р очень мала (см. гл. 5, п° 5.9). Тогда Р(В) ^ е-пр. и вместо формулы (14.5.15) получим*. _ 1п(1 -₽) Р2--------— —• а вместо формулы (14.5.16) 1п(1—р) Pi (14.5.17) (14.5.18) Пример 7. Найтн приближенно значение р2 для условий примера 5. Решение. По формуле (14.5.14) имеем: А = — InO.l 100 2,303 100 = 0,023. т. е. тот же результат, который получен по точной формуле в примере 5. Пример 8. Найти приближенно значение л для условии примера 6^ Решение. По формуле (14.5.18) имеем: — 1п0,05 " ~ 0.05 __ 2,996 “ 0.05 = 59.9. Округляя в большую сторону, находим п — 60, что мало отличается от ре- зультата л = 59, полученного в примере 6. 14.6. Оценки для числовых характеристик системы случайных величин В п°п° 14.1—14.4 мы рассмотрели задачи связанные с оценками для числовых характеристик одной случайной величины прн ограни- ченном числе опытов н построением для этих характеристик дове- рительных интервалов. Аналогичные вопросы возникают н при обработке ограниченного числа наблюдений над двумя н более случайными величинами. Здесь мы ограничимся рассмотрением только точечных оценок для характеристик системы. Рассмотрим сначала случай двух случайных величин. Имеются результаты п независимых опытов над системой случай- ных величин (X, У), давшие результаты: (-V1- J'l); У2у. (х„, у„). Требуется найти оценки для числовых характеристик системы: математических ожиданий тх. ту, Дисперсий Ол» Dy н корреляцион- ного момента Кху.
340 ОБРАБОТКА ОПЫТОВ [ГЛ к Этот вопрос решается аналогично тому, как мы решили его для одной случайной величины. Несмещенными оценками для математи- ческих ожиданий будут средине арифметические: л л 2ft тх =8 tsln ; гпу=-~^—, (14.6.1) а для элементов корреляционной матрицы— 2 (ft—'"J1 (=1 n— I ‘ Dy = 2 (ft-",)1 (14.6.2) n— 1 ’ 2 (ft-"*)(><-">) fal n— 1 Доказательство может быть проведено аналогично п° 14.2. При непосредственном вычислении оценок для дисперсий и кор- реляционного момента часто бывает удобно воспользоваться связью между центральными и начальными статистическими моментами: о;=а;[и-ю2; (14.6.3) где Л П 2ft 2-? a;(X|=±iL_; n n 2ft 2>? (14.6.4) «21И = — n 2 a; ,[X. n = — n Вычислив статистические моменты по формулам (14.6.3), можно ватем найти несмещенные оценки для элементов корреляционной
14 Я ОПЕНКИ ДЛЯ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛИЧИН 341 матрицы по формулам: О = D' — JT X п-- (14.6.5) Пример. Произведены стрельбы с самолета по земле одиночными выстрелами, зарегистрированы координаты точек попадания и одновременно записаны соответствующие значения угла скольжения самолета. Наблюден- ные значения угла скольжения р (в тысячных радиана) н абсциссы точки попадания X (в метрах) приведены в таблице 14.6.1. Таблица 14.6.1 1 К1 1 К| Х1 1 —8 —10 11 +3 —1 2 +10 —2 12 —2 +4 3 +1 13 +28 +12 4 -£22 +10 14 -f-62 4-20 о —1 15 —10 —11 6 —30 —16 16 —к 7 —15 —8 17 +22 +14 8 +5 18 +< 9 + 10 +“ 19 —32 —12 10 +18 20 +8 +1 Найти оценки для числовых характеристик системы (?, X). Решение. Для наглядности наносим все пары значений (₽. X) на график (рис. 14.6.1} Расположение точек на графике уже свидетельст- вует о наличии определенной зависимости (положительной корреляции) между S и X. По формулам (14.6.1) вычисляем средине значения величин ₽ и X — оценки для математических ожиданий: Шр«=7,15; тж«=0п5. Далее находим статистические вторые начальные моменты: 20 2₽? “11₽1 = ±^о_“581-8: 20 V х2 юд
ОБРАБОТКА ОПЫТОВ 342 1ГЛ. 14 По формулам (14.6.3) находим статистические дисперсии: £)* = 581,8— 51,0 = 530,8; D* = 85,4 — 0,2=85,2. Для нахождения несмещенных оценок умножим статистические дне- п 20 персии на ; получим: Др =• 559, £>х = 89,7. Соответственно средние квадратические отклонения равны: с, = 23.6; ~чх = 9,4G. По последней формуле (14.6.4) находим статистический начальный момент; ?.3 190,8 -40 -20 ~20 io -20 Рис. 14.6.1. и статистический корреляционный момент: = “1,1 ~ ™';™Х =* = 190,8 — 3.6 = 187,2. Для определения несмещен- ной оценки умножаем его на л 20. ^Т”-19; полУ’асм: K}t= 197.0. откуда оценка для коэффициента корреляции равна: ~ 1970 -QBS 23.6-9.46 ~°ж - ю Полученное сравнительно большое значение указывает на наличие существенной связи между £ и Л; на этом основании можно предполагать, что скольжение является основной причиной боковых отклонений снарядов. Перейдем к случаю обработки наблюдений над системой произ- вольного числа случайных величин. Имеется система т случайных величин (*!• *2...... Над системой произведено л независимых наблюдений; резуль- таты этих наблюдений оформлены в виде таблицы, каждая строка которой содержит т значений, принятых случайными величинами Л’,, Х2.....Хт б одном наблюдении (табл. 14.6.2).
14.6] ОЦЕНКИ ДЛЯ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛИЧИН 343 Таблица 14.6.2 *2 хт 1 ; «и *21 **т Хщ1 2 *1» *22 Х/гз хт2 ... i Х,< Хц ... хщ xmi ... ... п Хуп Х2П Xkn ... хтп Числа, стоящие в таблице и занумерованные двумя индексами, представляют собой зарегистрированные результаты наблюдений; пер- вый индекс обозначает номер случайной величины, второй—номер наблюдения, так что xkt — это значение, принятое величиной в i м наблюдении. Требуется найтн оценки для числовых характеристик системы: математических ожиданий лц. тх^ ...» тх н элементов корреля- ционной матрицы: ll/C./ll кпкп...к1т ха...к2т ^тт По главной диагонали корреляционной матрицы, очевидно, стоят дисперсии случайных величин Xv Х2...... Яд!—Dt; К2г— D2; .Kmm = Dm. Оценки для математических ожиданий найдутся как средние ариф- мегические: *ы — (* = 1.2........т). (14.6.6)
344 ОБРАБОТКА ОПЫТОВ ГГЛ. 14 Несмещенные оценки для дисперсий определятся по формулам (14.6.7) а для корреляционных моментов — по формулам 2(z« — ~ Л^Т (14 6 .8) По этим данным определяются оценки для элементов нормиро- ванной корреляционной матрицы: 'м = (14.6.9) где 2, =/о»: S, = Vd!. (14.6.Ю) Пример. Сброшено 10 серий бомб, по 5 бомб в каждой, и зарегистри- рованы точки попадания. Результаты опытов сведены в таблицу 14.6.3. В таблице буквой / обозначен номер серии; k — номер бомбы в серии. Требуется определить подходящие значения числовых характеристик — математических ожиданий и элементов корреляционных матриц — для системы пяти случайных величин (Zlt Х3, Ха. Л4, Хь) и системы пяти случайных величин (Г,. Гя, Yt, Г6). Решение. Оценки для математических ожиданий найдутся как сред- ние арифметические по столбцам: mXi= —74,3; mXi = —19,9; тл = 27,7; шх< = 85,8; ^=147,0; тУ1 = — 3,9; туг = —1,6; = 12,2; 1мЛ = 13,3; т>з = 9,9. При вычислении элементов корреляционной матрицы мы не будем, как в прежних примерах, пользоваться соотношениями между начальным'! и центральными моментами; в данном случае ввиду сильно изменяющихся ма- тема!ическнх ожиданий пользование этим приемом не даст преимуществ. Будем вычислять оценки для моментов непосредственно по формулам (14.6.2). Для этого вычтем нз каждого элемента таблицы 14.6.3 среднее значение соответствующего столбца. Результаты сведем в таблицу 14.6.4.
ОЦЕНКИ ДЛЯ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛИЧИН 345 Таблица 14.6.3 Абсцисса К Ордината Y 1 2 3 4 5 1 2 3 4 5 1 -190 —20 2 60 180 —20 —15 — 8 5 —2 2 —108 —75 —20 20 80 40 60 120 125 130 3 —200 —120 —80 —20 10 —25 —30 —20 —10 2 4 55 —2 40 120 200 —100 —75 г- 35 2 2 5 5 60 100 165 220 -40 —30 —25 -30 45 6 —240 —202 —140 —88 —зо 80 30 25 10 2 7 10 65 120 160 205 14 25 25 30 10 8 —40 0 65 103 170 80 75 60 10 4 9 —100 -40 —10 55 105 —70 —60 —30 —10 0 10 105 135 190 280 330 2 4 10 12 4 Таблица 14.6.4 r*/ ~ 'я*ь У"1 “и 2 3 5 1 2 3 4 5 1 —45.7 —0,1 —25.7 —25,8 33,0 —16.1 -134 —20,2 —19,3 —11,9 2 —33,7 —55,1 —37,7 —65,6 —67.С 43.9 61,6 107,8 111,7 120,1 3 —125,7 —100,1 —107.7 —105.6 —137,С —21,1 —28,4 —322 —23,3 —7.9 4 19,3 17.S 12,3 34,2 53.С —96.1 —73,4 —47,2 —11,3 —7,9 5 79,3 79,9 72,3 79,2 73.0 —36,1 —28,4 —37.2 -43,3 —54,9 6 —165,7 —182.1 —167,7 -173,6 —1770 83,9 31,6 12,8 —7.9 7 84.3 84.9 92.3 74,2 58,0 17.9 2(5,6 12,8 16,7 0,1 8 34,3 19,9 37,3 17,2 23.0 83,9 76,6 47.8 —233 —13.9 9 —25,7 —20.1 —37,7 —30,6 —42,0 —66,1 --58,4 —42,2 —9,9 10 179,3 154,9 162,3 194,2 183.0 5,9 5.6 —2,2 —1.3 —5,9 Возводя эти числа в квадрат, суммируя по столбцам и деля на л— 1=9, получим опенки для дисперсий и средних квадратических отклонений: DKi = 104,2 -10-; DXi = 94,4 10я; DXs = 943 102; Dx = 110,2 102; DXi = 114,4 . 102; о = 102; a x = 97; oXj = 97; ex< = 105; v X{ = 107. Dyi = 35.5 • 10!; DVi = 24,4 • 102; Dyj = 23,4 102; £>y< = 19,6 • 10\ Dy> = 20.1 • IO2; % = 48; %=44: »., = 45- Чтобы найти оценку для корреляционного момента, например, меж- ду величинами Xi и Л2, составим столбец попарных произведении чисел,
346 ОБРАБОТКА ОПЫТОВ ГГ-П И стоящих б первом и втором столбцах таблицы 14.6.4'). Сложив все аы произведения н разделив сумму на п — 1, получим: R r г = 0,959 -10*. Деля RXlXi на получим: Г_. «0,97. Х|Ха Аналогично находим все остальные элементы корреляционных матриц. Для удобства умножим все элементы обеих матриц моментов на Ю-2. По- лучим: 104,2 96,0 98,4 105,1 106,9 94,4 93,2 107.0 101,1 94Д 102,0 99,2 110,2 108,2 111,4 35,5 27,8 22,9 11,0 8,3 24,4 21,4 13,0 10,2 23,4 17,4 17,2 19,6 19,3 20,1 (Ввиду симметричности матриц они заполнены только наполовину.) Нормированные корреляционные матрицы имеют вид; 1,00 0,97 1,00 0,99 0,99 0,98 0,99 0,98 0,97 1,00 0,98 1,00 0,96 0,97 1,00 1,00 0.94 0,76 0,42 0,31 1.00 0,89 0,59 0,46 1,00 0,81 1.00 0,80 0,97 1,00 Рассматривал эти матрицы, убеждаемся, что величины (Л",» Х3, Xa,Xt,Xb) находятся в весьма тесной зависимое! и, приближающейся к функциональной; величины (У„ Fa, Yit Г<» 1Б) связаны менее тесно, и коэффициенты корре- ляции между ними убывают по мере уда тения от главной диагонали корре- ляционной матрицы. ’) Если вычисление производится на арифмометра или клавишной счет- ной машине, то нет смысла выписывать отдельные произведения, а следует непосредственно вычислять суммы произведений, нс останавливаясь па про- межуточных результатах.
ОБРАБОТКА СТРЕЛЬБ 347 14.7. Обработка стрельб Одной из важных практических задач, возникающих при изучении вопросов стрельбы н бомбометания» является задача обработки резуль- татов экспериментальных стрельб (бомбометаний). Здесь ыы будем различать два случая: стрельбу ударными сна- рядами и стрельбу дистанционными снарядами. При стрельбе ударными снарядами рассеивание характеризуется законом распределения системы двух случайных величин: абсциссы и ординаты точки попадания на некоторой плоскости (реальной или воображаемой). При стрельбе дистанционными снарядами рассеивание иосит пространственный характер j, и описывается законом распреде- ления системы трех координат точки разрыва снаряда. Рассмотрим сначала задачу обработки стрельб ударными сна- рядами. Пусть произведено п не- зависимых выстрелов по некото- рой плоской мишени и зареги- стрированы координаты п точек попадания (рис. 14.7.1): (*!• У|)« (*2’ Уг): •••! (.хп> Ул)* • Рис. 14.7.1. Предполагая, что закон распределения системы (X, Y) нормаль- ный, требуется найти оценки для его параметров: координат центра рассеивания тх, ту, угла а. определяющего направление главных осей рассеивания В. и главных с.к.о. оЕ, с^. Начнем с рассмотрения самого простого случая, когда направле- ние главных осей рассеивания известно заранее. Этот случай часто встречается иа практике, так как обычно направление главных осей рассеивания определяется самими условиями стрельбы (например, при бомбометании — направление полета и перпендикулярное к нему; при воздушной Стрельбе — направление поперечной скорости цели и перпендикулярное к нему и т. д,). В этом случае задача обработки стрельб сильно упрощается. Зная заранее хотя бы ориентировочно направление главных осей, можно выбрать координатные оси парал- лельно им; в такой системе координат абсцисса и ордината точки попадания представляют собой независимые случайные величины, и их закон распределения определяется всего четырьмя параметрами: координатами центра рассеивания н главными средними квадра- тическими отклонениями ах, ау. Оценки для этих параметров
348 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 определяются формулами (14.7.1) Рассмотрим более сложный случай, когда направление главных осей рассеивания заранее неизвестно и тоже должно быть опреде- лено из опыта. В этом случае определению подлежат оценки всех Рис 14.7 2. пяти параметров: координат центра рассеивания тт, ту, угла а и главных средних квад- ратических отклонений оЕ, с (рис. 14.7.2). Оценки для координат центра рассеивания в этом слу- чае определяются так же. как в предыдущем случае, по фор- мулам Л п 2 S yi '^ = -ТГ' т> = -7Г~- (14.7.2) Перейдем к оценке угла а. Предположим, что направления глав- ных осей рассеивания известны, и проведем через точку (тх, ту) главные осн ОЕ. От] (рис. 14.7.2). В системе EOtj координаты слу- чайной точки (X, У) будут: Е==(Х— /«Jcosa-f-(К — ту) sin а, 1 Н = — (X — тх) sin а -р (Y — my)cosa. J или 2 = Xcosa+PsIna. 1 (Н73) Н = — X sin a-f- У cosa. | Очевидно, величины Е. Н будут иметь математические ожидания, равные нулю: М [S] = М [Н] = 0.
Г4.7] ОБРАБОТКА СТРЕЛЬБ 349 Так как оси Оъ, Оц — главные оси рассеивания, величины Е, 1Г независимы. Но для величин, подчиненных нормальному закону, не- зависимость эквивалентна некоррелированности; следовательно, нам достаточно найти такое значение угла а, при котором величины Е, Н не коррелированы. Это значение и определит направление главных осей рассеивания. Вычислим корреляционный момент величин (Е, Н). Перемножая равенства (14 7.3) и применяя к их произведению операцию матема- тического ожидания, получим: К^ = М [ЕН] = — М [X2] sin a cos а 4- М [XF](cos2a— sin2 a) 4- М [И2] sin a cos a =-sin 2a (Dx — Dy) 4" Kxy cos 2a. Приравнивая это выражение нулю и деля обе части па cos 2a. имеем: 2КХ> ‘e2l=sr^;- (14-7Л) Уравнение (14.7.4) даст два значения угла а: а, и а?, различаю- щиеся на Эти два угла и определяют направления главных осей рассеивания !). Заменяя в равенстве (14.7.4) Кху, Dx, Dy их оценками» получим оценку для угла а: Найдем опенки для главных средних квадратических отклоне- ний оЕ. а^. Для этого найдем дисперсии величин Е. Н, заданных формулами (14.7.3). по теореме о дисперсии лилейной функции: D-c — £)xcos2a -|- Dy sin2 a 4- 2Kxy sin a cos a; £>4 = Dx sin2 a 4- Dy cos2 a — %Кху sin a cos a, откуда находим оценки для главных дисперсий: Д — Ьх cos2 а 4~ Кху sin 2-a 4- Dy sin2 a; D^ — Dx sin2 a — Kxy sin 2a 4- £)y cos2 a. ') Заметим, что выражение (14.7.4) совпадает с приведенным в главе 9 выражением (9.2.2) для угла а, определяющего направление осей симметрии эллипса рассеивания, (14.7.5)
350 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 Оценки для главных средних квадратических отклонений выра- зятся формулами; Выпишем отдельно полную сводку формул для обработки стрельб по плоской мишени в случае, когда направление главных осей рас- сеивания заранее неизвестно. Оценки искомых параметров опре- деляются формулами: 1 -arctg t>x—Dy ' (14.7.7) ot = V Ьх cos2a4-K’Jrysin2a-|- Dy sln2a; вч= V DySin2a—^Aysln2a4-DyCos’a, где Kxy У (Л— rn,)’ n y, (x, —mr)(y, —m,) n—1 (14.7.8) В заключение следует заметить, что обработку стрельб по пол- ным формулам (14.7.7) имеет смысл предпринимать только тогда, когда число опытов достаточно велико (порядка многих десятков); только в этом случае угол а может быть оценен с достаточной точностью. При малом числе наблюдений значение а, полученное обработкой, является в значительной мере случайным. Задачу обработки стрельб дистанционными снарядами мы здесь рассмотрим только в простейшем случае, когда направление главных осей рассеивания (хотя бы ориентировочно) известно заранее. Как правило, встречающиеся в практике стрельбы дистанционными сна- рядами задачи обработки опытов относятся к этому типу. Тогда можно выбрать координатные оси параллельно главным осям рас- сеивания и рассматривать три координаты точки разрыва снаряда как независимые случайные величины.
Т4 8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 351 Пусть в результате п независимых выстрелов зарегистрированы координаты п точек разрыва дистанционных снарядов (»!• Ур г,); (хг. у3. .... (х„. у„. zn) в системе координат с осями, параллельными главным осям рассеи- вания. Оценки для параметров нормального закона определятся формулами: На решении задачи обработки стрельб дистанционными снарядами в случае, когда направления главных осей рассеивания заранее не- известны, мы останавливаться ие будем, так как на практике эта задача встречается сравнительно редко. 14.8. Сглаживание экспериментальных зависимостей по методу наименьших квадратов К вопросам, связанным с обработкой опытов, разобранным в дан- ной главе, близко примыкает вопрос о сглаживании эксперименталь- ных зависимостей. Пусть производится опыт, целью которого является исследование зависимости некоторой физической величины у от физической вели- чины х (например, зависимости пути, пройденного телом, от времени; начальной скорости снаряда от температуры заряда; подъемной силы от угла атаки и т. д.). Предполагается, что величины хну связаны функциональной зависимостью: У — <р (х). (14.8.1) Вид этой зависимости и требуется определить из опыта.
352 ОБРАБОТКА ОПЫТОВ ГГЛ М Предположим, что в результате опыта мы получили ряд экспери- ментальных точен и построили график зависимости у от х (рис. 14.8.1). Обычно экспериментальные точки иа таком графике располагаются не совсем правильным образом — дают некоторый «разброс», т. е. обнаруживают случайные отклонения от видимой обшей закономер- ности. Эти уклонения связаны с неизбежными при всяком опыте ошибками измерения. Возникает вопрос, как по этим экспериментальным данным наи- лучшим образом воспроизвести зависимость у от х? Известно, что через любые п точек с координатами (xf. у() всегда можно провести кривую, выражаемую аналитически полино- мом степени (n — 1), так. чтобы она в точности прошла через каж- дую из точек (рис. 14.8.2). Однако такое решение вопроса обычно не является удовлетворительным: как правило, нерегулярное поведение экспериментальных точек, подобное изображенному на рис. 14.8.1 и 14.8.2, связано не с объективным характером зависимости у от х. а исключительно с ошибка- У ыи измерения. Эго легко обнаружить, сравнивая на- блюденные уклонения (раз- брос точек) с примерно нз- вестиыми ошибками изме- ригельной аппаратуры. Тогда возникает весьма типичная для практики зада- ча сглаживания экспе- ---------------------------------х рнментальной зависимости. Рис 14 8 3 Желательно обработать экспериментальные данные так, чтобы по возможности точно отразить общую тенденцию зависимости у от х» но вместе с тем сгладить незакономерные, случайные уклоне- ния, связанные с неизбежными погрешностями самого наблюдения.
14.fi] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 353 Для решения подобных задач обычно применяется расчетный метод, известный под названием «метода наименьших квадратов». Этот метод дает возможность при заданном типе зависимости у = <р(х) так выбрать ее числовые параметры, чтобы кривая у — ^(х) в известном смысле наилучшим образом отображала экспериментальные данные» Скажем несколько слов о том, из каких соображений может быть выбран тип кривой у = <р(х). Часто этот вопрос решается непосред- ственно по внешнему виду экспериментальной зависимости. Например, экспериментальные точки, изображенные на рис. 14.8.3, явно наводят на мысль о прямолинейной зависимости вида у = ах -J- Ь. Зависи- мость. изображенная на рис. 14.< плена полиномом второй сте- пени у = ах2 4* Если У речь идет о периодической функции, часто можно вы- брать для ее (изображения несколько гармоник триго- нометрического ряда и т. д. Очень часто бывает так. что вид зависимости (линей- ная, квадратичная, показа- тельная и т. д.) бывает из- ______ вестей из физических сооб- ряжений, связанных с су- ществом решаемой задачи, а из оп 1.4, хорошо может быть предста- Рнс. 14.8.4. требуется установить только некоторые параметры этой зависимости. Таблица 14.8.1 Задачу о рациональном выборе та- ких числовых параметров при данном 1 Х1 виде зависимости мы н будем решать в настоящем nJ. Пусть имеются результаты п неза- висимых опытов, оформленные в виде простой статистической таблицы (табл. 14.8-1), где 1 — номер опыта; х, — зна- 1 Х| У\ 2 ха Уз ... чение аргумента; yt—соответствующее значение функции, 1 У1 Точки (х4, у\) нанесены на график (рис. 14.8.5). Из теоретических или иных соо- бражений выбран принципиальный внд зависимости у=у (х). Функция у=у (х) ... п хп Уп с, Ь, с. У = <р(Х) содержит ряд числовых параметров .. Требуется так выбрать эти параметры, чтобы кривая в каком-то смысле наилучшим образом изображала аави- симость, полученную а опыте. 12 Теория вероятностей
354 ОБРАБОТКА ОПЫТОВ [ГЛ U Решение этой задачи, как и любой задачи выравнивания илн сглаживания, зависит от того, что именно мы условимся считать «наилучшнм». Можно, например, считать «наилучшнм» такое взаим- ное расположение кривой и экспериментальных точек, при котором максимальное расстояние между ними обращается в минимум; можно потребовать, чтобы в минимум обращалась сумма абсолютных величин отклонений точек от кривой и т. д. Прн каждом из этих требований мы получим свое решение задачи, свои значения параметров а. Ь. с, ... Однако общепринятым прм решении подобных яадач является так называемый ме- /под наименьших квадра- тов, при котором требова- ние наилучшего согласо- вания кривой ysip(x) и экспериментальных точек сводится к тому, чтобы сумма квадратов откло- нений эксперименталь- ных точек от сглаживаю- щей кривой обращалась в минимум. Метод наимень- ших квадратов имеет перед другими методами сглаживания существенные преимущества: во-пер- вых, он приводит к сравнительно простому математическому способу определения параметров а, Ь, с. во вторых, он допускает до- вольно веское теоретическое обоснование с вероятностной точки зрения. Изложим это обоснование. Предположим, что истинная зависи- мость у от х в точности выражается формулой y = q>(x); экспери- ментальные точки уклоняются от этой зависимости вследствие неиз- бежных ошибок измерения Мы уже упоминали о том, что ошибки измерения, как правило, подчиняются нормальному закону. Допустим, что это так. Рассмотрим какое-нибудь значение аргумента Результат опыта есть случайная величина Yt, распределенная по нормальному закону с математическим ожиданием <р(х^) и со сред- ним квадратическим отклонением характеризующим ошибку из- мерения. Предположим, что точность измерения во всех точках оди- накова: Тогда нормальный закон, по которому распределяется величина можно записать в виде: (уг?(л)Г Л(^) = (14.8.2)
11.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 355 В результате нашего опыта — ряда измерений — произошло следую- щее событие: случайные величины (Pj, К2, F„) приняли сово- купность значений (ур у2......................Ул)- Поставим задачу: так подобрать математические ожидания cp(Xi), 4>(х^)г .... <f>(xn), чтобы вероят- ность этого события была максимальна1). Строго говоря, вероятность любого из событий F/ = yp так же как и их совмещения, равиа нулю, так как величины Yl непре- рывны; поэтому мы будем пользоваться не вероятностями событий Yt = а соответствующими элементами вероятностей: ” dyP (14.8.3) о у zn Найдем вероятность того, что система случайных величин К2, .... Yn примет совокупность значений, лежащих в пределах (У<. Vi + dyt) (у=1. 2.....................п). Так как опыты независимы, эта вероятность равна произведению элементов вероятностей (14.8.3) для всех значений /: -6 2о‘ dyt = Ke . (14.8.4) о К 2л где К — некоторый коэффициент, не зависящий от <р(х4). Требуется так выбрать математические ожидания <p(Xi), <р(х2). .»• .... (р(хя), чтобы выражение (14.8.4) обращалось в максимум. Величина я е '“1 всегда меньше единицы; очевидно, она имеет наибольшее вначение» когда показатель степени по абсолютной величине минимален: п S 1у<— fWl* = mIn‘ - Отсюда, отбрасывая постоянный множитель получаем требо- вание метода наименьших квадратов: для того чтобы данная сово- купность наблюденных значений Ур У2- •••• Ул была наивероятнейшей, нужно выбрать функцию ср(х) так. чтобы сумма квадратов отклонений наблюденных значений была минимальной: п S В) — <Р(*,)]! = П11П. ________________4=1 ') Так называемый «принцип максимального правдоподобия».
356 ОБРАБОТКА ОПЫТОВ (ГЛ. 14 Таким образом обосновывается метод наименьших квадратов, исходя из нормального закона ошибок измерения и требования макси- мальной всроятиостн данной совокупности ошибок. Перейдем к задаче определения параметров а, Ь, с, ...» исходя нз принципа наименьших квадратов. Пусть имеется таблица экспери- ментальных данных (табл. 14.8.1) и пусть из каких-то соображений (связанных с существом явления или просто с внешним видом наблю- денной зависимости) выбран общий вид функции у = ^(х), завися- щей от нескольких числовых параметров а, Ь, с, ,именно эти параметры и требуется выбрать согласно методу наименьших квадратов так, чтобы сумма квадратов отклонений от ^(х^) была минимальна. Запишем у как функцию не только аргумента х, но и параметров а, Ь, с, ...: у=<р(х; а. Ь. с, ...). (14.8.5) Требуется выбрать а. Ь. с. ... так, чтобы выполнялось условие: л X (У/ — Tfc а> b, с> ...)]2 = min- (14.8.6) Найдем значения а, Ь, с. .... обращающие левую часть выражения (14.8.6) в минимум. Для этого продифференцируем ее по а, Ь, с» ... н приравняем производные нулю: ^[у( —а. Ь, с. Г=1 п JJll'i-fW °. А с- 1.1 — ?(*<; а. Ь. с, (=1 (14.8.7) где J = Чв(*<* а* е* "• •) — значение частной производной функ- ции ip по параметру а б точке хц •••—аналогично. Система уравнений (14.8.7) содержит столько же уравнений, сколько неизвестных а, Ь. с, ... Решить систему (14.8.7) в общем виде нельзя; для этого необхо- димо задаться конкретным видом функции ср. Рассмотрим два часто встречающихся на практике случая: когда функция с линейна и когда она выражается полиномом второй сте- пени (параболой).
и.в| СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 357 1. Подбор параметров линейной функции методом наименьших квадратов В опыте зарегистрирована совокупность значений (xt, у£) Вя=1, 2, ...» и; см. рнс. 14.8.6). Требуется подобрать по методу дегры а, b лике Иной функции у = ах-\- Ь, изображающей данную экспери- ментальную зависимость. Решение. Имеем: у = ср(х; с, b) — ax-\-b. (14.8.8) Дифференцируя выражение (14.8.8) по а н bt имеем: ^_==х. [дТ\=х. да ’ \ да 1’ наименьших квадратов пара- Рис. I486. Подставляя в формулы (14.8.7), получим два уравнения для опре- деления а н Ь‘. п 2 (У/ — (ах, + 4)1 х, = О, /=1 л 2 (Л — (ях,Ч-£>)| = 0. Г=1 или, раскрывая скобки и производя суммирование, S xiVi—а 5 —ь S х,=о, 4-1 Г=1 i = i п п У у{ — а У xt — bn = 0. y«=j Ы1 Разделим оба уравнения (14.8.9) на «: (14.8.9) (14.8.10)
358 ОБРАБОТКА ОПЫТОВ |ГЛ !4 Суммы, входящие в уравнения (14.8.10)» представляют собой не что иное, как уже знакомые нам статистические моменты; 2*? ^—=“1.1^. и. Подставляя эти выражения в систему (14.8.10), получим: ai И — ла2^1 — £т*=0. т* — от* — b — 0. Выразим b из второго уравнения (14.8.11) и подставим в b = т* — от*; а* 2 [X, Г] — о а,* [X ] — (т* — От*) т*х = О- Решая последнее уравнение относительно о, имеем: (14.8.11) первое: — ai,i И —стУ”у »; [*]—("Су (14.8.12) Выражение (14.8.12) можно упростить, если ввести в него не началь- ные, а центральные моменты. Действительно. а],11 *> К] — тхту — КХу* [ ?С] — (т^)2 = Dx откуда где (14.8.13) (14.8.14) Таким образом, поставленная задача решена, и линейная зависи- мость, связывающая у и X, имеет вид: К* , ф С .
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 359 или, перенося пГ в левую часть, (14.8.15) Мы выразили коэффициенты линейной зависимости через централь- ные, а не через начальные вторые моменты только потому, что в таком виде формулы имеют более компактный вид. Прн практическом примене- нии выведенных формул может оказаться удобнее вычислять моменты /Сгу и Dx не по формулам (14.8.14), а через вторые начальные моменты: (14.8.16) Для того чтобы формулы (14.8.16) не приводили к разностям близких чисел» рекомендуется перенести начало отсчета в точку, не слишком далекую от математи- ческих ожиданий т*, т*. 2. Подбор параметров параболы второго порядка методом наименьших квадратов В опыте зарегистрированы зна- чения (хР у,) (Z=l, 2....л; см. рис. 14.8.7). Требуется мето- дом наименьших квадратов подо- брать параметры квадратичной функции — параболы второго по- рядка: у — ах~ 4- Ьх 4- с. соответствующей наблюденной экспериментальной зависимости. Имеем: у_=з<р(х; а, Ь. с) — ах2 4- Ьх 4" с, 41 — v2. да ~ ’ \da)t
360 ОБРАБОТКА ОПЫТОВ Подставляя в уравнения (14.8.7), имеем: 2 [У/ — (“*? + **, + с)] л’ = 0. 2 [у,—(<»*?+ Ьх,+0] xt=°- 2 [у,-—(.“>-?+Ьх,+с)]=о. или, раскрывая скобки, производя суммирование к деля па п. Коэффициенты этой системы также представляют собой статисти- ческие моменты системы двух величин А', У, а именно: п и 2 х‘ 2 ДА-=т; = а;[Х1; = m; = a;irj: л л п 2*5 2х? 2*5 ~п----«И*1: ^- = *;[Х1; л л 2 xi>i 2 x1>i =<,ix и. и- Пользуясь этими выражениями для коэффициентов через началь- ные моменты одной случайной величины и системы двух величии,
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 361 можно придать системе уравнений (14,8.7) достаточно компактный вид. Действительно, учитывая, что а* [Д’] = 1; о{>1 [Д’. F) — а* | И и перенося члены, не содержащие неизвестных, в правые части, при- ведем систему (14.8.17) к виду: a;[Xle4-a;[Xl^+«;[Xlc=a’ JX. И. (14.8-18) Закон образования коэффициентов в уравнениях (14.8.18) нетрудно подметить: в левой части фигурируют только моменты величины X в убывающем порядке; в правой части стоят моменты системы (Д’, У), причем порядок момента пэ X убывает от уравнения к уравнению, а порядок по У всегда остается первым1). Аналогичными по структуре уравнениями будут определяться коэффициенты параболы любого порядка. Мы видим, что в случае, когда экспериментальная зависимость выравнивается по методу наименьших квадратов полиномом некото- рой степени, то коэффициенты этого полинома находятся решением системы линейных уравнений. Коэффициенты этой системы линейных уравнений представляют собой статистические моменты различных порядков, характеризующие систему величин (X, У), если ее рас- смотреть как систему случайных величин. Почти так же просто решается задача сглаживания эксперимен- тальной зависимости методом наименьших квадратов в случае, когда сглаживающая функция представляет собой не полином, а сумму про- извольных заданных функций <р,(х). <?2 (х)....<?й(х) с коэффици- ентами аг, а........................................... y = f(*. О[, а2....я,) = ft = <’1<Р1(*) + °з'М*) + (JC) = 2 (14.8.19) и когда требуется определить коэффициенты at. ') Решения системы (14.8.18) относительно неизвестных а. Ь, с в общем виде мы не приводим, так как это решение слишком громоздко, а иа прак- тике обычно удобнее решать систему (14.8.18) не с помощью определителей, а последовательным исключением неизвестных.
362 ОБРАБОТКА ОПЫТОВ |ГЛ, 14 Например, экспериментальную зависимость можно сглаживать тригонометрическим полиномом ср с2, с3. с4) = = ах cos шх я2 sin ujx + с3 cos 2ых -|- с4 sin 2ujx или линейной комбинацией показательных функций <р(х; с1в с2, с3) = с1еаГ4-с2^4-о3ет/, и т. д. В случае, если функция задается выражением типа (14.8.19), коэф- фициенты ср с2, ...» сл находятся решением системы k линейных уравнений вида: 2 (У( —k|ft(x,) + a2<p2(x,) + ... + at!ft (xjl} ср, (хг) = 0. 4=1 2 (У/ — lci'fi (*i)+ "sft (*,)+ • • + ft (*,) = 0, 2 (У/ —l“i,Fi(JC<)-4-«№(*() + +<!»¥»(*i)l]<P*W = 0. Выполняя почленное суммирование, имеем: "1 X 1ft (*<)!’+ °2 2 ft И ?1 (*|) +••+“» 1 С* (X,) <р, (х;) = * = 1 /=1 Г-1 1=1 "1 S Т1(-«|) %(•«<) + “2 2 1“2 (*,)!’+ +“t S ¥„(Х,)<р2(Х,) = 4=1 4=1 1=1 = 2у1Ч‘гМ- Cl X fl (Xiift (х,) i- с2 2 Фг (*i) Чк (x,) 4- ... +«, Z If, (x,)|; = 4=1 4=1 4=1 = 2 y,?» (Xi).
14.И СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 363 или, короче, k п п . S ft Vj<-Xi> = 2 >Wi (xJ- in П Z C|2?2(-«l)<Py(-,cl)=2jy<92W. /=1 i=i i-i (14.8.20) 2 “/S ч>* (*,) vj(xi)=S y^t(xi)- Систему линейных уравнений (14.8.20) всегда можно решить и определить таким образом коэффициенты at, az. .... ак. Сложнее решается задача о сглаживании методом наименьших квадратов, если в выражение функции у = <р(х; a, b, С. ...) число- вые параметры a, b, с.___входят нелинейно. Тогда решение си- стемы (14.8.7) может оказаться сложным и трудоемким. Однако и в этом случае часто удается получить решение задачи с помощью сравни- тельно простых приемов. Проиллюстрируем идею этих приемов иа самом простом примере функции, нелинейно зависящей толь- ко от одного параметра а (напри- мер, у = е~ах' или у = в1пах, или Имеем: J ах ) у=<р(х. а), (14.8.21) где а — параметр, подлежащий под- бору методом наименьших квадратов для иаилучшего сглаживания задан- ной экспериментальной зависимости (рис. 14.8.8). Будем решать задачу следующим образом. Зададимся рядом зна- чений параметра а и для каждого из них найдем сумму квадратов отклонений от а). Эта сумма квадратов есть некоторая функция а; обозначим ее E(fl): п S (с) = 2 [у, — <р (х,. О)12. / = ] Нанесем значение Е(с) на график (рис. 14.8.9). То вначение с, для которого кривая 2(a) имеет минимум, и вы- бирается как подходящее внвчение параметра ап выражении (14.8.21).
364 ОБРАБОТКА ОПЫТОВ ТГЛ. и Совершенно так же, в принципе, можно, не решая уравнений (14.8.7), подобрать совокупность двух параметров (a, b)t удовлетворяющую принципу наименьших квадратов; работа при этом лишь незначительно усложнится и сведется к построению не одного, а нескольких гра- фиков (рис. 14.8.10); при этом прилетев искать со- вокупность значений а, Ь, обеспечивающую мини- мум минимального зна- чения суммы квадратов отклонений Е(с, Ь). Пример!. В опыте исследована зависимость глубины проникания Л телз в преграду от удельной энер- гии $ (энергии, приходя- щейся на квадратный сан- тиметр площади соударе- ния). Экспериментальные данные приведены в табли- Рис. 14,8.11. це 14.8.2 и на графике (рис. 14.8.11). Требуется по методу наименьших квадратов подобрать и построить пря- мую, изображающую зависимость Л от g. Решение. Имеем: =“ТУ 2137 13 я 164,4, Для обработки по начальным моментам переносим начало координат в близкую к средней точку: S о = 150; Лд20.
СГЛЛЖ118АНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 365 Получаем новую таблицу значений величин: S* 3 S — Jai h' — h — Ло (табл. 14.8.3). Определяем моменты: * I “J tg'l - ~ 6869; DZ = 6869 — (mJ, )2 = 6869 — (164,4 —150)2 = 66G2; Z'SX <4, ! IS'. Л'1 = —13— ж 842; Таблица 14.8.2 t <кгм1смУ h, {мм} 1 41 4 2 50 8 3 81 10 4 104 14 120 15 6 139 20 7 154 19 8 180 23 9 208 26 10 241 30 11 250 31 12 269 36 13 301 37 Таблица 14.8.3 sJ—Sf-lS) й'=Л,-2> 1 —109 —16 2 —100 —12 3 —69 — 10 4 —46 —6 5 —30 —4 6 -11 0 7 4 —1 8 30 3 9 53 6 10 91 10 11 100 11 12 119 16 13 151 17 Л'бЛ в °1, 1 й'1 — rn’. m’. =. 842 — (164,4 —150) (21,1 — 20) ж «842—16 = 826. Уравнение прямой имеет вид: , /<£Л Л-тЛ = "Я5-(б“Лс). или Л — 21,1 = 0,124 (5 — 164,4). (14.8.22) Прямая (14.8.22) показана на рис. 14.8.1 L П pjt м е р 2. Произведен ряд опытов по измерению перегрузки авиа- ционной бомбы, проникающей в грунт, прн различных скоростях встречи. Полученные значения перегрузки N в зависимости от скорости v приведены в таблице 14.8.4. Построить по методу наименьших квадратов квадратичную зависи- мость вида: N = cv3 -|- bv -f- с, наилучшим образом согласующуюся с экспериментальными данными.
366 ОБРАБОТКА ОПЫТОВ 1ГЛ. 14 Решение. В целях удобства обработки удобно изменить единицы из- мерения так, чтобы ие иметь дела с многозначными числами; для этого можно значения v выразить в сотнях м/сек (умножить на IO"2), a N—в тысячах единиц (умножить на 10-3) и всю обработку провести в этих условных единицах. Находим коэффициенты уравнений (14.8.18). В принятых условных единицах: 2®1 , I 362,65 »«1 ®1 = —— = —14- = 25.92; Таблица 14.8.4 t v (м/сек} N 1 120 540 2 131 590 3 140 670 4 161 760 5 174 850 6 180 970 7 200 1070 8 214 1180 9 219 1270 10 241 1390 11 2.50 1530 12 268 1600 13 281 1780 14 300 2030 2®? <£[®1 =-5;— 10.60; 14 63.49 —Гл ' — 4вэ35, 14 . ?V' 2879 «; м==-5г=-тр1=2.056- 2". % 11®. Л'1 = “’I7^] = mA-= —j4—= = ^=1459; 14 2®л i “a I®] Ч.1«. *1=-Ч— =^--2,629; 2®?л'< о‘ , [ti. W| = — 6,287. Система уравнений (14.8.18) имеет вид: 25,92а 4- 10,606 + 4,535с — 6,287, 10,60а 4,535*4- 2,056с = 2.629, 4.535а 4- 2.056* 4- с = 1,159. Решая эту систему, находим: а « 0,168; *«0,102; с «0,187. На рис. 14.8.12 нанесены экспериментальные точки и зависимость N = av*4- *v -J- с, построенная по методу наименьших квадратов. Примечание. В некоторых случаях может потребоваться провести кривую у = <р (х) так, чтобы она точно проходила через некоторые заданные заранее точки. Тогда некоторые нз числовых параметров а, Ь;-с, .... входя- щих в функцию у = ч (х), могут быть определены из этих условий.
КВ] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 367 Например, в условиях примера 2 может понадобиться проэкстраполиро- вать зависимость Лг (v) на малые значения и; при этом естественно провести параболу второго порядка так, чтобы она проходила через начало координат (т. е. нулевом скорости встречи соответствовала нулевая перегрузка). Тогда, естественно, с = 0 и зависимость N (г) приобретает вид. N = a vu bv, а система уравнений для определения а и Ъ будет иметь вид. 25,92а 4- 10,606 = 6,287, 10.60а 4-4,5356 = 2,629. между обкладками конденсатора от времени t зарегистрирована иа участке времени 10 сек с интервалом 1 сек. Напряжение измеряется с точностью до 5 волып. Результаты измерений приведены в таблице 14.8.5. Согласно теоретическим данным, зависимость напряжения от времени должна иметь вид: Основываясь на опытных данных, подобрать методом наименьших квадратов значение параметра а. Решение. По таблицам функции е ~х убеждаемся, что е~х доходит при- близительно до 0,05 при х я 3; следовательно, коэффициент а должен иметь
368 ОБРАБОТКА ОПЫТОВ 1ГЛ и порядок 0,3. Задаемся в районе а = 0,3 несколькими значениями а; а = 0,28; 0,29; 0,30; 0,31; 0,32; 0,33 и вычисляем для них значения функции и=иов~°1 в точках (табл. 14.8.6) В нижней строке таблицы 14.8.6 помещены значе- ния суммы квадратов отклонений 1(a) в зависимости от а. Рис. 14 8.13. График функции 1(a) приведен на рис. 14.8.13. Из графика видно, что значение а, отвечающее минимуму, приближенно равно 0,307. Таким образом,
М.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 369 по методу наименьших квадратов наилучшнм приближением к опытным дан- ным будет функция U = UDe~v,3ait. График этой функции вместе с экспери- ментальными точками дан на рнс» 14.8.14. Таблица 14.8.6 1 * п=0,28 о=0,29 и=.0»3.) а =0.31 о =0,32 а = 0,33 1 0 100.0 100,0 100,0 100,0 100,0 100,0 2 1 75,5 74,8 71,1 73,3 72,6 71,9 3 2 57,1 56.0 54,9 53,8 52,7 51,7 4 3 43.2 41,9 407 39.5 38.3 37,2 о 4 32.6 31,3 30,1 28,9 27,8 26,7 6 5 24.6 23.5 22,3 21,2 20,2 19,2 7 6 18,6 17,6 16,5 !5£ 14,7 13,8 8 7 14,1 13,1 12,2 11.4 10,6 9,9 9 8 10,7 9,8 9.1 8,4 7,7 7,1 10 9 8,0 7,4 6,7 6,1 -5,6 5,1 11 10 6.1 5,5 5,0 4.5 4,1 3,7 1(a) 83,3 40,3 17,4 13,6 25,7 51,4
ГЛАВА 15 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ 15.1. Понятие о случайной функции До сих пор в нашем курсе теории вероятностей основным пред- метом исследования были случайные величины. Случайная величина характерна тем, что она в результате опыта принимает некоторое одно, заранее неизвестное, но единственное вначеиие. Примерами таких случайных величин могут служить: абсцисса точки попада- ния при выстреле; ошибка радиодальномера при одном, единичном измерении дальности; горизонтальная ошибка наводки прн одном выстреле и т. д. Ограничиваясь рассмотрением подобных отдельных случайных ве- личин, мы изучали случайные явления как бы «в статике», в ка- ких-то фиксированных постоянных условиях, отдельного опыта. Однако такой элементарный подход к изучению случайных явле- ний в ряде практических задач является явно недостаточным. На практике часто приходится иметь дело со случайными величинами, непрерывно изменяющимися в процессе опыта. Примерами таких слу- чайных величин могут служить: ошибка радиодальномера при непре- рывном измерении меняющейся дальности; угол упреждения при не- прерывном прицеливании по движущейся цели; отклонение траекто- рии управляемого снаряда от теоретической в процессе управления или самонаведения. Такне случайные величины, изменяющиеся в процессе опыта, мы будем в отличие от обычных случайных величин называть случай- ными функциями. Изучением подобных случайных явлений, в которых случайность проявляется в форме процесса, занимается специальная отрасль тео- рии вероятностей — теория случайных функций (иначе — теория слу- чайных или стохастических процессов). Эту науку можно образно назвать «динамикой случайных явлений». Теория случайных функций—новейший раздел теории вероятно- стей, развившийся, в основном, за последние два-три десятилетия.
15.t] ПОНЯТИЕ О СЛУЧАЙНОЙ ФУНКЦИИ 371 В настоящее время эта теория продолжает развиваться и совершен- ствоваться весьма быстрыми темпами. Это связано с непосредственными требованиями практики, в частности с необходимостью решения ряда технических аадач. Известно, что за последнее время в технике все большее распространение получают системы с автоматизированным управлением. Соответственно все ббльшие требования предъявляются к теоретической базе этого вида техники — к теории автоматиче- ского управления. Развитие этой теории невозможно без анализа ошибок, неизбежно сопровождающих процессы управления, которые всегда протекают в условиях непрерывно воздействующих случайных возмущений (так называемых «помех»). Эти возмущения по своей природе являются случайными функциями. Для того чтобы рацио- нально выбрать конструктивные параметры системы управления, необходимо изучить ее реакцию нв непрерывно воздействующие слу- чайные возмущения, а единственным аппаратом, пригодным для такого исследования, является аппарат теории случайных функций. В данной главе мы познакомимся с основными понятиями этой теории и с общей постановкой ряда практических вздач, требующих применения теории случайных функций. Кроме того, здесь будут изложены общие правила оперирования с характеристиками случайных функций, аналогичные правилам оперирования с числовыми характе- ристиками обычных случайных величин. Первым из основных понятий, с которыми нам придется иметь дело, является само понятие случайной функции. Это понятие на- столько же шире и богаче понятия случайной величины, насколько математические понятия переменной величины н функции шире и богаче понятия постоянной величины. Вспомним определение случайной величины. Случайной величиной называется величина, которая в результате опыта может принять то или иное значение, неизвестно заранее—какое именно. Дадим ана- логичное определение случайной функции. Случайной функцией называется функция, которая в результате опыта может принять тот или иной конкретный вид, неизвестно за- ранее— какой именно. Конкретный вид, принимаемый случайной функцией в результате опыта, называется реализацией случайной функции. Если над слу- чайной функцией произвести группу опытов, то мы получим группу нлп «семейство» реализаций этой функции. Приведем несколько примеров случайных функций. Пример 1. Самолет-бомбардировщик на боевом курсе имеет теоретичесии постоянную воздушную скорость V. Фактически его скорость колеблется около этого среднего номинального значения и представляет собой случайную функцию времени. Полет на боевом курсе можно рассматривать как опыт, в котором случайная функция У(0 принимает определенную реализацию (рис. 15.1.1). О г опыы
372 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ [ГЛ. IB 1Б.Ц ПОНЯТИЕ о СЛУЧАЙНОЙ функции 373 к опыту вид реализации меняется. Если на самолете установлен самопишущий прибор, то он в каждом полете запишет новую, отлич- *ную от других реализа- Рис. 16.1.2. цню случайной функции. В результате нескольких полетов можно получить семейство реализаций слу- чайной функции V (0 (рис. 15.1.2). Пример 2. При на- ведении управляемого сна- ряда на цель ошибка на- ведения R (t) представ- ляет собой отклонение центра иксы снаряда от теоретической траекто- рии. т. е. случайную функ- цию времени (рис. 15Л .3). В том же опыте слу- чайными функциями вре- мени являются, например, перегрузка снаряда N(t), угол атаки а(0 и т. д. Пример 3. При стрельбе с самолета по самолету перекрестие прицела в течение некоторого времени должно непрерывно совмещаться с целью — следить ва ней. Операция слежения за целью сопровождается ошибками—так называемыми ошибками на- водки (рис. 15.1.4). Горизонтальная и вертикальная ошибки иаводки в процессе прицеливания непрерывно меняются и представляют собой две случайные функции X (0 н Y (0. Реализации этих случайных фуик- ций можно получить в результате дешифровки снимков фотопулемета, фотографирующего цель в течение всего процесса слежения. Число примеров случайных функций, встречающихся в технике, можно было бы неограниченно увеличивать. Действительно, в любом случае, когда мы имеем дело с непрерывно работающей системой (системой измерения, управления, наведения, регулирования), при анализе точности работы этой системы нам приходится учитывать наличие случайных воздействий (помех). Как сами помехи, так и вызванная ими реакция системы представляют собой случайные функ- ции времени. До сих пор мы говорили только о случайных функциях, аргу- ментом которых является время t. В ряде задач практики встречаются случайные функции, зависящие не от времени, а от других аргумен- тов. Например, характеристики прочности неоднородного стержня могут рассматриваться как случайные функции абсциссы сечения х. Температура воздуха в различных слоях атмосферы может рассмат- риваться как случайная функция высоты Н. На практике встречаются также случайные функции, вависящне не от одного аргумента, а от нескольких. Например, аэрологические данные, характеризующие состояние атмосферы (температура, давле- ние, ветер), представ л я'ют собой в общем случае случайные функции четырех аргументов: трех координат х. у. z л времени t. Рис. 15.1.5. В данном курсе мы будем рассматривать только случайные функ- ции одного аргумента. Так как этим аргументом чаще всего является время, будем обозначать его буквой t. Кроме того, условимся, как правило, обозначать случайные функции большими буквами (-<¥(0, Y(0, ...) в отличие от неслучайных функций (х (0, у (0....). Рассмотрим некоторую случайную функцию X (0. Предположим, что над ней произведено п независимых опытов, в результате кою- рых получено п реализаций (рис. 15.1.5). Обозначим их соответ- ственно номеру опыта Xj (0, х2 (t), .... хп (().
374 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ [ГЛ IB Каждая реализация, очевидно, есть обычная (неслучайная) функ- ция. Таким образом, в результате каждого опыта случайная функция А' (/) превращается в обычную, неслучайную функцию. Зафиксируем теперь некоторое значение аргумента t и посмотрим, во что превратится при этом случайная функция X (ty Очевидно, она превратится в случайную величину в обычном смысле слова. Условимся называть эту случайную величину сечением случайной функции, соответствующим данному t. Если провести «сеченне» се- мейства реализаций при данном t (рис. 15.1.5), мы получим п зна- чений. принятых случайной величиной X (/) в п опытах. Мы видим, что случайная функция совмещает в себе черты слу- чайной величины и функции. Если зафиксировать значение аргумента, она превращается в обычную случайную величину, в результате каждого опыта она превращается в обычную (неслучайную) функцию. В ходе дальнейшего изложения мы часто будем попеременно рас- сматривать одну и ту же функцию X (t) то как случайную функцию, то как случайную величину, в зависимости от того, рассматри- вается ли она на всем диапазоне изменения t или при его фиксиро- ванном значении. 15.2. Понятие о случайной функции как расширение понятия о системе случайных величин. Закон распределения случайной функции Рассмотрим некоторую случайную функцию X (I) на определенном отрезке времени (рис. 15.2.1). Строго говоря, случайную функцию мы не можем изобра- жать с помощью кривой на графике; начертить мы можем лишь ее конкретные реализации. Однако в целях наглядности можно позволить cede условно изобразить на чертеже случайную функцию X (/) в виде кривой, понимая под этой кривой не конкретную реализацию, а всю
15.2J ЗАКОН РАСПРЕДЕЛЕНИЯ СЛУЧАЙНОЙ ФУНКЦИИ 375 совокупность возможных реализаций X (/). Эту условность мы будем отмечать тем, что кривую, символически изображающую случайную функцию, будем проводить пунктиром. Предположим» что ход изменения случайной функции регистри- руется с помощью некоторого прибора, который не записывает слу- чайную функцию непрерывно, а отмечает ее значения через определен- ные интервалы — в моменты времени f2, •••» Как было указано выше, при фиксированном значении t случай- ная функция превращается в обычную случайную величину. Следо- вательно, результаты записи в данном случае представляют собой систему т случайных величии: *00. *00.........*(Q. (15.2.1) Очевидно, при достаточно высоком темпе работы регистрирующей аппаратуры запись случайной функции через такие интервалы даст достаточно точное представление о ходе ее изменения. Таким обра- зом, рассмотрение случайной функции можно с некоторым прибли- жением заменить рассмотрением системы случайных величин (15.2.1). По мере увеличения т такая замена становится все более и более точной. В пределе число значений аргумента — и соответственно число случайных величин (15.2.1) — становится бесконечным. Таким образом, понятие случайной функции можно рассматривать как естественное обобщение понятия системы случайных величин на слу- чай бесконечного (несчетного) множества величин, входящих в систему. Исходя из такого толкования случайной функции попытаемся от- ветить на вопрос: что же должен представлять собой закон рас- пределения случайной функции? Мы зиаем, что закон распределения одной случайной величины есть функция одного аргумента, закон распределения системы двух величин — функция двух аргументов н т. д. Однако практическое пользование в качестве вероятностных характеристик функциями многих аргументов настолько неудобно, что даже для систем трех- четырех величин мы обычно отказываемся от пользования законами распределения и рассматриваем только числовые характеристики. Что касается закона распределения случайной функции, который пред- ставляет собой функцию бесчисленного множества аргументов, то такой закон в лучшем случае можно чисто формально записать в какой-либо символической форме; практическое же пользование подобной характеристикой, очевидно, совершенно исключено. Молено, однако, для случайной функции построить некоторые вероятностные характеристики, аналогичные законам распределения. Идея построения этих хараитеристик заключается в следующем. Рассмотрим случайную величину X(t)— сечение случайной функ- ции в момент t (рнс. 15.2.2). Эта случайная величина, очевидно.
376 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАПНЫХ ФУНКЦИЯ 1ГЛ 15 обладает законом распределения, который в общем случае зависит от t. Обозначим его /(х, t). Функция /(х, #) называется одномер- ным законом распределения случайной функции X (/). Очевидно, функция /(х, t) не является полной, исчерпывающей характеристикой случайной функции X (t). Действительно, эта функ- ция характеризует только закон распределения X (/) для данного. X(t)~ I \ /Л /W I X / " t i \ / ' \ Z--* Рис. 13.2.2. хотя и произвольного t; она не отвечает на вопрос о зависи- мости случайных величин X(t) при различных /. С этой точки зре- ния более полной характеристикой случайной функции X (Q является так называемый двумерный закон распределения: /(хР х2; tj. (15.2.2) Это—закон распределения системы двух случайных величин X ('Д X {t^, т. е. двух произвольных сечений случайной функции X (Г). Одиако и эта характеристика в общем случае не является исчерпы- вающей; еще более полной характеристикой был бы трехмерный закон: /(Xj, х2, х3; /р /2* *з)- (15.2.3) Очевидно, теоретически можно неограниченно увеличивать число аргументов и получать при этом все более подробную, все более исчерпывающую характеристику случайной функции, но оперировать со столь громоздкими характеристиками, зависящими от многих аргу- ментов. крайне неудобно. Поэтому при исследовании законов рас- пределения случайных функций обычно ограничиваются рассмотрением частных случаев, где для полной характеристики случайной функции достаточно, например, знания функции (15.2.2) (так называемые «про- цессы без последействия»). В пределах настоящего элементарного изложения теории случайных функций мы вовсе не будем пользоваться законами распределения, а ограничимся рассмотрением простейших характеристик случайных функций, аналогичных числовым характеристикам случайных величин.
1БЗ] ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ФУНКЦИЙ 377 15.3. Характеристики случайных функций Мы имели много случаев убедиться в том. какое большое значе- ние в теории вероятностей имеют основные числовые характеристики случайных величин: математическое ожидание и дисперсия—для одной случайной величины, математические ожидания а корреляцион- ная матрица—для системы случайных величин. Искусство пользо- ваться числовыми характеристиками, оставляя по возможности в сто- роне законы распределения, — основа прикладной теории вероятно- стей. Аппарат числовых характеристик представляет собой весьма гибкий и мощный аппарат, позволяющий сравнительно просто решать многие прак- тические вадачи. Совершенно аналогичным ачпаратом пользуются и в теории случайных функций. Для случайных । функций также вводятся простейшие основные характеристики, аналогичные числовым ха- рактеристикам случайных ве- личин, и устанавливаются правила действий с этими характеристиками. Такой аппарат оказывается доста- точным для решения мно- Рис- 15.3.1. гих практических задач. В отличие от числовых характеристик случайных величии, пред- ставляющих собой определенные числа, характеристики случайных функций представляют собой в общем случае не числа, а функции. Математическое ожидание случайной функции X (t) определяется следующим образом. Рассмотрим сечение случайной функции X (/) при фиксированном t. В этом сечеини мы имеем обычную случайную величину; определим ее математическое ожидание. Очевидно, в общем случае оно вависит от t, т. е. представляет собой некоторую функ- <пж(0 = Л1[Л(0]. (15.3.1) Таким образом, математическим ожиданием случайной функции X(f) называется неслучайная функция mr(t), которая при каждом значении аргумента t равна математическому ожаданию соответствующего сечения случайной функции. По смыслу математическое ожидание случайной функции есть некоторая средняя функция, около которой различным образом варьируются конкретные реализации случайной функции.
378 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ 1гл. 13 На рис. 15.3.1 топкими линиями показаны реализации случайной функции, жирной линией — ее математическое ожидание. Аналогичным образом определяется дисперсия случайной функции. Дисперсией случайной функции X (<) называется неслучай- ная функция Dx(t). значение которой для каждого t равно дисперсии соответствующего сечения случайной функции-. Dx(t) = D\X (t)\. (15.3.2) Дисперсия случайной функции при каждом t характеризует раз- брос возможных реали- X,(t) Рис. 15.3.2. заций случайной функции относительно среднего, иными словами, «степень случайности» случайной функции. Очевидно, есть неотрицательная функция. Извлекая из нее квадрат- ный корень, получим функцию gx (t) — среднее квадратическое отклоне- ние случайной функции: (15.3.3) Математическое ожи- дание и дисперсия пред- ставляют собой весьма важные харакгеристики случайной функции; од- иако для описания основ- ных особенностей слу- чайной функции этих характеристик недоста- точно. Чтобы убедиться в этом, рассмотрим две случайные функции Xt(f) и X2(t). наглядно изо- браженные семействами реализаций на рис. 15.3.2 и 15.3.3. У случайных функций X^t) н Х2{1) примерно одинаковые мате- матические ожидания и дисперсии; однако характер этих случайных
15 31 ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ФУНКЦИИ 379 функций резко различен. Для случайной функции Xt(f) (рис. 15.3.2) характерно плавное, постепенное изменение. Если, например, в точке t случайная функция Хх (/) приняла значение, заметно превышающее среднее, то весьма вероятно, что и в точке V она также примет аначение больше среднего. Для случайной функции Хх (t) характерна ярко выраженная зависимость между ее значениями при различных /• Напротив, случайная функция X2(t) (рис. 15.3.3) имеет резко коле- бательный характер с неправильными, беспорядочными колебаниями. Для такой случайной функции характерно быстрое затухание зави- симости между ее значениями по мере увеличения расстояния по t между ними. Очевидно, внутренняя структура обоих случайных процессов со- вершенно различна, но это различие не улавливается ии математи- ческим ожиданием, ни дисперсией; для его описания необходимо ввести специальную характеристику. Эта характеристика называется корреляционной функцией (иначе — автокорреляционной функ- цией). Корреляциоииая функция характеризует степень зависимости между сечениями случай- ной функции, относящи- мися к различным t. Пусть имеется слу- чайная функция X (О (рис. 15.3.4), рассмотрим два ее сечеиия. относя- щихся к различным мо- ментам: t и t', т. е. две случайные величины X (t) и X (Г). Очевидно, что при близких значениях t п t' величины X (/) и X (tr) связаны тесной зависимостью: если величина X (t) приняла какое-то значение, то и величина X(t') с большой вероятностью примет значение, близкое к нему. Очевидно также, что при увеличении интервала между сечениями t, t' зависи- мость величин X (/) и X (/') вообще должна убывать. Степень зависимости величин X (I) и X (£') может быть в зна- чительной мере охарактеризована их корреляционным моментом; очевидно, он является функцией двух аргументов t и t'. Эта функ- ция и называется корреляционной функцией. Таким образом, корреляционной функцией случайной функ- ции X (t) называется неслучайная функция двух аргументов Kx{t, t'). которая при каждой паре значений t, I' равна корреляционному моменту соответствующих сечений случай- ной функции; mJ Рис. 15.3.4. Кл(/. Г) = Л1|Л(0А(Г)1. (15.3.4)
380 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ |ГЛ. 15 где X (0 = X (0 - тл. (t), X (Г) = X (U) — тх (/'). Вернемся к примерам случайных функций Xj(0 и X2(t) (рис. 15.3.2 и 15.3.3). Мы видим теперь, что при одинаковых мате- матических ожиданиях и дисперсиях случайные функции Хх (t) и X2(t) имеют совершенно различные корреляционные функции. Кор- реляционная функция случайной функции -¥((0 медленно убывает но мере увеличения промежутка (/, /'); напротив, корреляционная функ- ция случайной функции X2(t) быстро убывает с увеличением этого промежутка. Выясним, во что обращается корреляционная функция Kx(t» С), когда ее аргументы совпадают. Полагая Г' = t, имеем: Хх (t, t) = Л1 [(X (t) )21 = Dx (О. (15.3.5) т. е. при t' — t корреляционная функция обращается е дис- персию случайной функции. Таким образом, необходимость в дисперсии как отдельной харак- теристике случайной функции отпадает: в качестве основных харак- Рнс. 15.3.5. теристик случайной функции достаточно рассматривать ее математическое ожидание и корреляционную функцию. Так как корреляционный момент двух случайных вели- чии X (t) и X (I') не зависит от последовательности, в кото- рой эти величины рассматри- ваются, то корреляционная функция симметрична относи- тельно своих аргументов, т. е. не меняется при перемене аргу- ментов местами: t') = Kx(t'. /). (15.3.6) Если изобразить корреляционную функцию Kx(t. t') в виде по- верхности, то эта поверхность будет симметрична относительно вер- тикальной плоскости Q, проходящей через биссектрису угла tOt' (рис. 15.3.5). Заметим, что свойства корреляционной функции естественно вытекают из свойств корреляционной матрицы системы случайных величин. Действительно, заменим приближенно случайную функ- цию X (t) системой т случайных величин X (tx). X (/.,)...X (/,„). При увеличении т и соответственном уменьшении промежутков между
1531 ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ФУНКЦИИ 381 аргументами корреляционная матрица системы, представляющая собой таблицу о двух входах, в пределе переходит в функцию двух не- прерывно изменяющихся аргументов, обладающую аналогичными свой- ствами. Свойство симметричности корреляционной матрицы относи- тельно главной диагонали переходит в свойство симметричности корреляционной функции (15.3.6). По главной диагонали корреля- ционной матрицы стоят дисперсии случайных величин: аналогично при V = t корреляционная функция /<х(/. t') обращается в диспер- сию Dx(t). На практике, если требуется построить корреляционную функцию случайной функции X (0, обычно поступают следующим образом: задаются рядом равноотстоящих значений аргумента и строят корре- ляционную матрицу полученной системы случайных величин. Эта матрица есть не что иное, как таблица значений корреляционной функции для прямоугольной сетки значений аргументов на пло- скости (/, /'). Далее, путем интерполирования или аппроксимации можно построить функцию двух аргументов Kx(t, Г). Вместо корреляционной функции Кд. (Л !') можно пользоваться нормированной корреляционной функцией: (15.3.7) которая представляет собой коэффициент корреляции величин X (f), X (!'). Нормированная корреляционная функция аналогична норми- рованной корреляционной матрице системы случайных величин. При t'— t нормированная корреляционная функция равна единице: rx<t, t) [Or(0]2 — [Ojr(0|» — h (15.3.8) Выясним, как меняются основные характеристики случайной функции при элементарных операциях над нею: прн прибавлении не- случайного слагаемого и при умножении на неслучайный множитель. Эти неслучайные слагаемые и множители могут быть как постоян- ными величинами, так в общем случае и функциями t. Прибавим к случайной функции X (!) неслучайное слагаемое у(0. Получим новую случайную функцию: , Г (О =-%(/)+?(<). (15.3.9) По теореме сложения математических ожиданий: mv (I) = тл. (!) + у (0, (15.3.10) т. е. при прибавлении к случайной функции неслучайного слагаемого к ее математическому ожиданию прибавляется то же неслучайное слагаемое.
382 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУИКИИИ [ГЛ. 1S Определим корреляционную функцию случайной функции У (t): = М [(У (0 — ту (0) (У (Г) — ту (У) )] => == М [(X (0 Ч- ? (0 — тх (0 — ? (0) (Л(/') ч- ф (Н — тх (/')-<р (/0)1 = = Л1[(Х(0 —мж(0)(Х(Г) —тл(Н)1 = АСх(/. П (15.3.П) т. е. от прибавления неслучайного слагаемого корреляцион- ная функция случайной функции не меняется. Умножим случайную функцию X (0 на неслучайный множи- тель у(0: У(О=<р(0Х(0. (15.3.12) Вынося неслучайную величину <f(f) за знак математического ожида- ния. имеем: му (0 = А11Ф (О X (01 = ф(О тх (0. (15.3.13) т. е. при умножении случайной функции на неслучайный мно- житель ее математическое ожидание умножается на тот же множитель. Определяем корреляционную функцию: ку (/. Н = М [У (0 У (Cl = М ((У (0—Му (О) (V (*')—му (Н)] = == м 1<р (0 у (П (X (0 — тл (0 ) (X (t') — тх «') )1 = = Ф(0Ф(ПКж(0 (15.3.14) т. е. при умножении случайной функции на неслучайную функ- цию <р(0 ее корреляционная функция умножается на В частности, когда <р(/) = с (ие зависит от 0, корреляционная функция умножается на с2. Пользуясь выведенными свойствами характеристик случайных функций, можно в ряде случаев значительно упростить операции с ними. В частности, когда требуется исследовать корреляционную функцию вли дисперсию случайной функции, можно заранее перейти от нее к так называемой центрированной функции: X (0 = X (t) — тх (0. (15.3.15) Математическое ожидание центрированной функции тождественно равно нулю, а ее корреляционная функция совпадает с корреляцион-
15 41 ОПРЕДЕЛЕНИЕ ХАРАКТЕРИСТИК СЛУЧАЛ НОИ ФУНКЦИИ ИЗ ОПЫТА 383 ной функцией случайной функции X (t): K°(t. Г) = >И[Х(ОХ(Г)[ = ^(/. /'). (15.3.16) При исследовании вопросов, связанных с корреляционными свой- ствами случайных функций, мы в дальнейшем всегда будем перехо- дить от случайных функций к соответствующим центрированным функциям, отмечая это значком ° вверху знака функции. Иногда, кроме центрирования, применяется еще нормирование случайных функций. Нормированной называется случайная функция вила: = (15.3.17) Корреляционная функция нормированной случайной функции Хл (0 равна к^‘- Г> = -^К^Т==^(Л ''> (15-ЗЛ8) а се дисперсия равна единице. 16.4. Определение характеристик случайной функции из опыта Пусть над случайной функцией X (t) произведено п независимых опытов (наблюдений) и в результате получено п реализаций случай- ной функции (рис. 15.4,1). Требуется найти оценки для характеристик случайной функции; ее математического ожидания mx(t). дисперсии Dx(t) н корреля- ционной функции Kx(t, t'). Для этого рассмотрим ряд сечений случайной функции для мо- ментов времени *1’ *2....
384 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 15 и зарегистрируем значения, принятые функцией X(t) в этн моменты времени. Каждому из моментов tt, t2, tm будет соответствовать л значений случайной функции. Значения /р t.2, .... tm обычно задаются равноотстоящими; вели- чина интервала между соседними значениями выбирается в зависи- мости от вида экспериментальных кривых так. чтобы по выбранным точкам можно было восстановить основной ход кривых. Часто бывает так, что интервал между соседними значениями t задается независимо от задач обработки частотой работы регистрирующего прибора (на- пример, темпом киноаппарата). Зарегистрированные значения X (0 заносятся в таблицу, каждая строка которой соответствует определенной реализации, а число столб- цов равно числуг опорных значений аргумента (табл. 15.4.1). Таблица 15.4.1 \ t Хш\' *2 '* '1 1т х,(0 Ж, (С) Jtl (Л) ж. (Л) X, (/,) Х| (<да) *>(') *1 (О *1 ('«) х2 (fnt) ... ... . . . •»<(') МЛ) Л/ (<г) *1 0») *<('/) xi (tm) . . . -МО Л, (Л) */.«») *»('<) хл (^m) В таблице 15.4Л в t~Vi строке помещены значения случайной функции, наблюденной в l-Vi реализации (/-м опыте) при значениях аргумента /Р t2, ...» t,„. Символом jq(/a) обозначено значение, соот- ветствующее i-й реализации в момент tk. Полученный материал представляет собой не что иное, как ре- зультаты п опытов над системой т случайных величин А (/,). Х(0). .... X(tm), и обрабатывается совершенно аналогично (ом. н° 14.3). Прежде всего находятся оценки для математических ожиданий по формуле 2 -*<('»)
16 5] МЕТОДЫ ОПРЕДЕЛЕНИЯ ХАРАКТЕРИСТИК 385 затем — для дисперсий £>М = (15.4.2) и, наконец, для корреляционных моментов V |х, (/,) - га, (/,)] [х, (/,) - т, (?,)] В ряде сперсий и начальными 6)==—------------j------------—• случаев бывает удобно при вычислении оценок корреляционных моментов воспользоваться связью между и центральными моментами и вычислять их по формулам; (15.4.3) ДЛЯ ДИ- ЗД= fl (15.4.4) 2Jmw *,('*. */) = 2J чШй) ——7.--- (15.4.5) Прн пользовании последними вариантами формул, чтобы избежать разности близких чисел, рекомендуется заранее перенести начало отсчета по оси ординат поближе к математическому ожиданию После того, как эти характеристики вычислены, можно, пользуясь рядом значений №*((,)> mx(t2), ..mx(tm), построить зависимость /их(0 (рис. 15.4.1). Аналогично строится зависимость Dx(t). Функция двух аргументов Кх (/, t') воспроизводится по ее значениям в прямо- угольной сетке точек. В случае надобности все эти функции аппро- ксимируются какими-либо аналитическими выражениями. 15.5. Методы определения характеристик преобразованных случайных функций по характеристикам исходных случайных функций В предыдущем п° мы познакомились с методом непосредственного определения характеристик случайной функции из опыта. Такой метод применяется далеко ие всегда. Во-первых, постановка специальных опытов, предназначенных для исследования интересующих нас слу- чайных функций, может оказаться весьма сложной и дорогостоящей. Во-вторых, часто нам требуется исследовать случайные функции, характеризующие ошибки приборов, прицельных приспособлений, си- стем управления и т. д., еще не существующих, а только проекти- руемых или разрабатываемых. При этом обычно исследование этих ошибок и предпринимается именно для того, чтобы рационально вы- брать конструктивные параметры системы так, чтобы они приводили и Теория вороятностиП
386 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 15 к минимальным ошибкам. Ясно, что прн этом непосредственное иссле- дование случайных функций, характеризующих работу системы, неце- лесообразно, а в ряде случаев вообще невозможно. В таких случаях в качестве основных рабочих методов применяются не прямые, а кос- венные методы исследования случайных функций. Подобными кос- венными методами мы уже пользовались при исследовании случайных величии: ряд глав нашего курса—гл. 10, И. 12—был посвящен нахождению законов распределения н числовых характеристик слу- чайных величин косвенно, по законам распределения и числовым ха- рактеристикам других случайных величин, с ними связанных. Поль- зуясь совершенно аналогичными методами, можно определять харак- теристики случайных функций косвенно, по характеристикам других случайных функций, с ними связанных. Развитие таких косвенных методов и составляет главное содержание прикладной теории случай- ных функций. Задача косвенного исследования случайных функций на практике обычно возникает в следующей форме. Имеется некоторая динамическая система А; под «динамической системой» мы понимаем любой прибор, прицел, счетно-решающий механизм, систему автоматического управления и т. п. Эта система может быть механической, электрической или содержать любые дру- гие элементы. Работу системы будем представлять себе следующим образом: на вход системы непрерывно поступают какие-то входные данные; система перерабатывает их и непрерывно выдает некоторый результат. Условимся называть поступающие иа вход системы данные «воздействием», а выдаваемый результат «реакцией» системы на это воздействие. В качестве воздействий могут фигурировать изменяю- щиеся напряжения, угловые и линейные координаты каких-либо объек- тов, сигналы или команды, подаваемые на систему управления, и т. п. Равным образом и реакция системы может вырабатываться в той или иной форме: в виде напряжений, угловых перемещений и т. д. Например, для прицела воздушной стрельбы воздействием является угловая координата дви- жущейся цели, непре- рывно измеряемая в про- цессе слежения, реак- цией—угол упреждения. Рассмотрим самый Рис. 15.5.1. простой случай: кфгда на вход системы А подается только одно воздействие, представляющее собой функцию времени х реакция системы на это воздействие есть другая функция времени у (/). Схема работы системы А условно изображена на рис. 15.5Д, Будем говорить, что система А осуществляет над входным воз- действием некоторое преобразование, в результате которого
1БЛ] МЕТОДЫ ОПРЕДЕЛЕНИЯ ХАРАКТЕРИСТИК 387 функция х(0 преобразуется в другую функцию y(t). Запишем это преобразование символически в виде: у(0 = Л{х(/)). (15.5.1) Преобразование А может быть любого вида и любой сложности. В наиболее простых случаях это, например, умножение иа заданный множитель (усилители, множительные механизмы), дифференцирование или интегрирование (дифференцирующие или интегрирующие устрой- ства). Однако на практике системы, осуществляющие в чистом виде такие простейшие преобразования, почти не встречаются; как правило, работа системы описывается дифференциальными уравнениями, и пре- образование А сводится к решению дифференциального уравнения, связывающего воздействие x(f) с реакцией y(t). При исследовании динамической системы в первую очередь решается основная задача: по заданному воздействию х (t) определить реакцию системы у (О- Однако для полного исследования системы и Оценки ее технических качеств такой элементарный подход является недоста- точным. В действительности воздействие x(t) никогда не поступает на Рис. 155.2. вход системы в чистом виде: оно всегда искажено некоторыми слу- чайными ошибками (воз- мущениями), в результате ..... У ft) _ которых на систему фак- тически воздействует не ваданная функция х (/), а случайная функция X (t); соответственно этому си- стема вырабатывает в ка- честве реакции случайную функцию Y (/). также отличающуюся от теоретическсй реакции у (О (рис. 15.5.2). Естественно возникает вопрос: насколько велики будут случайные искажения реакции системы при наличии случайных возмущений на ее входе? И далее: как следует выбрать параметры системы для того, чтобы эти искажения были минимальными? Решение подобных задач не может быть получено методами клас- сической теории вероятностей; единственным подходящим математи- ческим аппаратом для этой цели является аппарат теории случайных функций. Из двух поставленных выше задач, естественно, более простой является первая — прямая — задача. Сформулируем ее следующим образом. На вход динамической системы А поступает случайная функ- ция X (/); система подвергает ее известному преобразованию, в ре- зультате чего на выходе системы появляется случайная функция: Г(0 = Л[Л(0). (15.5.2)
388 основные понятия теории случайных функции 1гл. is Известны характеристики случайной функции X (0: математиче- ское ожидание и корреляционная функция. Требуется найти анало- гичные характеристики случайной функции Y (0. Короче: по задан- ным характеристикам случайной функции на входе динамической си- стемы найти характеристики случайной функции на выходе. Поставленная задача может быть решена совершенно точно в одной частном, но весьма важном для практики случае: когда преобразо- вание А принадлежит к классу так называемых линейных преобразо- ваний и соответственно система- А принадлежит к классу линейных систем. Содержание этих понятий будет пояснено в следующем п°. 16.6. Лниейиые и нелинейные операторы. Оператор динамической системы При изложении теории преобразования случайных функций ми будем пользоваться широко применяемым в математике и технике понятием оператора Понятие оператора является обобщением понятия функции. Когда мы устанавливаем функциональную связь между двумя переменными у и х и пишем: >«/(*). (15.6.1) то под символом f мы понимаем правило, по которому заданному значению х приводится в соответствие вполне определенное значе- ние у. Знак f есть символ некоторого преобразевания, которому нужно подвергнуть величину X, чтобы получить у. Соответственно виду этого преобразования функции могут быть линейными и нели- нейными. алгебраическими, трансцендентными и т. д. Аналогичные понятия и соответствующая символика применяются в математике и в тех случаях, когда преобразованию подвергаются ие величины, а функции. Рассмотрим некоторую функцию х(0 и установим определенное правило А, согласно которому функция х(0 преобразуется в другую функцию у(0. Запишем это преобразование в следующем виде: у(О = Я(х(О). (15.6.2) Примерами подобных преобразований могут быть, например» диф- Я0 = ^р-. (15-6-3) интегрирование? t y(t) = J x(x)dx. (15.6.4) о 11 т. д. Правило А, согласно которому функция х(0 преобразуется в функцию y(t). мы будем называть оператором', например, мы
>5.6] линейные и нелинейные операторы 389 будем говорить: оператор дифференцирования, оператор интегриро- вания, оператор решения дифференциального уравнения и т. д. Определяя оператор, мы рассматривали только преобразование функции Х(/) в другую функцию у того же аргумента t. Следует заметить, что такое сохранение аргумента при определении опера- тора вовсе не является обязательным: оператор может преобразовы- вать функцию х(0 в функцию другого аргумента y(s), например: J|(S)= ff(l. s)x(t)dt, (15.6.5) а где <p(i. s)— некоторая функция, зависящая, помимо аргумента еще и от параметра s. Но так как при анализе ошибок динамических систем наиболее естественным аргументом является время /, мы здесь ограничимся рас- смотрением операторов, преобразующих одну функцию аргумента t в другую функцию того же аргумента. Если динамическая система преобразует поступающую на ее вход функцию x(f) в функцию y(t): у(О = Л{х(О}, то оператор А называется оператором динамической системы. В более общем случае на вход системы поступает ие одна, & несколько функций: равным образом на выходе системы могут появляться несколько функций; в этом случае оператор системы пре- образует одну совокупность функций в другую. Однако в целях простоты изложения мы рассмотрим здесь лишь наиболее элементар- ный случай преобразования одной функции в другую. Преобразования или операторы, применяемые к функциям, могут быть различных типов. Наиболее важным для практики является класс так называемых линейных операторов. Оператор L называется линейным однородным, если Он обла- дает следующими свойствами: 1) к сумме функций оператор может применяться почленно: L (Х1 (I) + хг (0J = L {х, (0J + £ (х2 (/)); (15.6.6) 2) постоянную величину с можно выносить за знак оператора: £(сх(О}=с£(х(О|. (15.6.7) Из второго свойства, между прочим, следует, что для линейного однородного оператора справедливо свойство А{0} = 0, (15.6.8) т. е. при нулевом входном воздействии реакция системы равна нулю.
390 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ |ГЛ. 13 Примеры линейных однородных операторов: 1) оператор дифференцирования: но=^; 2) оператор интегрирования: У(О = J x(x)dv. о 3) оператор умножения на определенную функцию у(0 = ф(0х(0; 4) оператор интегрирования с заданным «весом» <р(0: t У(0= J х(т)ф(т)Л о и т. д. Кроме линейных однородных операторов, существуют еще линей- ные неоднородные операторы. Оператор L называется линейным неоднородным, если он со- стоит из линейного однородного оператора с прибавлением некото- рой вполне определенной функции <р(0: £{х(0}:==М*(О}Ч-9(О. (15.6.9) где —линейный однородный оператор. Примеры линейных неоднородных операторов: 1)'у(0=-^Уа+ч’ОТ. 2) У(0 = / + 3) у(9=?1(О«(П-Ьй(0. где <p(0, Ф1(0, фаСО — вполне определенные функции, a x(Jt) — пре- образуемая оператором функция. В математике и технике широко применяетсв условная форма записи операторов, аналогичная алгебраической символике. Такая символика в ряде случаев позволяет избегать сложных преобразова- ний и записывать формулы в простой н удобной форме. Например, оператор дифференцирования часто обозначают буквой р: d Р=м- помещаемой в виде множителя перед выражением, подлежащим диф- ференцированию. При этом запись у(0 = рх(О
15 6] ЛИНЕПНЫЕ И НЕЛИНЕЙНЫЕ операторы 391 равносильна записи Двойное дифференцирование обозначается множителем р2: и т. д. Пользуясь подобной символикой, в частности» очень удобно за- писывать дифференциальные уравнения. Пусть, например, работа динамической системы А описывается линейным дифференциальным уравнением с постоянными коэффи- циентами. связывающими реакцию системы y(t) с воздействием x(t). Б обычной форме записи это дифференциальное уравнение имеет вид: +о,^ + «оУ(0 = (15.6.Ю) В символической форме это уравнение может быть записано в виде: (олр«+оп_,р«-Ч- ... + “1Р + “о)У(0 = = ••• +М+*о)х(О. d u-Л где р = ---оператор дифференцирования. Обозначая для краткости полиномы относительно р, входящие в правую и левую части, Д, (Р) = я»Р"+«1Р+“о. Sm(p) = t’„Pm4-t’m-iP"”‘-l- +l>iP + bQ, запишем уравнение в еще более компактной форме: Л„(р)у(О = Вт(Р)*(0- (15.6.11) Наконец, формально разрешая уравнение (15.6.11) относи- тельно y(t). можно символически записать оператор решения линей- ного дифференциального уравнения в «явном» виде; = (15-6-12) Пользуясь аналогичной символикой, можно записать в оператор- ной форме и линейное дифференциальное уравнение с переменными
392 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ функинп [ГЛ Г5 коэффициентами. В обычной форме это уравнение имеет вид: °"w + ““-1 10 4-----+ (/) "^Г + “°(/) у (0 = = + • +4> W ~2+Л(0*Ю- (15.6.13) Обозначая многочлены относительно р. коэффициенты которых зависят от t. АгЛр. 1) = а„(/)р" + <!„_,«) р" ' + ... +al(t)p + a„(t). Вт(Р <) = *,«WPm + »m ДОр’-Ч- ... +i’,W₽+^W. можно записать оператор дифференциального уравнения в виде: >’Ю = "хиНгх(/)- (156U) В дальнейшем мы по мере надобности будем пользоваться такой символической формой записи операторов. Встречающиеся в технике динамические системы часто описываются линейными дифференциальными уравнениями. В этом случае, как нетрудно убедиться, оператор системы является линейным. Динамическая система, оператор которой является линейным, назы- вается линейной динамической системой. В противоположность линейным операторам и системам рассматри- ваются системы и операторы нелинейные. Примерами нелинейных операторов могут служить t у(0 = х2(/), y(O = J*3W<ft. y(0=sinx(«). и а также решение нелинейного дифференциального уравнения, хотя бы / (0 + ocosy(0 = x«)- Динамическая система, оператор которой не деяяется линейным, называется нелинейной системой. На практике линейные системы встречаются очень часто. В связи с линейностью этих систем к анализу их ошибок может быть с большой эффективностью применен аппарат теории случайных функций. Подобно тому как числовые характеристики линейных функ- ций обычных случайных величин могут быть получены по числовым характеристикам аргументов, характеристики случайной функции па выход- линейной динамической системы могут быть определены, если известны оператор системы и характеристики случайной функции на ее входе.
15-7] ЛИИЕПНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИИ 393 Еще чаще, чем линейные системы, на практике встречаются системы ие строго линейные, но в известных пределах допускающие линеари- зацию. Если случайные возмущения на входе системы достаточно малы, то практически любая система может рассматриваться — в пре- делах этих малых возмущений — как приближенно линейная, подобно тому как при достаточно малых случайных изменениях аргументов практически любая функция может быть линеаризована. Прием приближенной линеаризации дифференциальных уравнений широко применяется в теории ошибок динамических систем. В дальнейшем мы будем рассматривать только линейные (или линеаризуемые) динамические системы и соответствующие им линей- ные операторы. 15.7. Линейные преобразования случайных функций Пусть на вход линейной системы с оператором L воздействует случайная функция X (0, причем известны ее характеристики: мате- матическое ожидание mx(t) и корреляционная функция t'). Реакция системы представляет собой случайную функцию Г(0 = Д{Х(0}. (15.7.1) Требуется найти характеристики случайной функции V (0 на выходе системы: my(t) и Ky(t. t'). Короче: по характеристикам слу- чайной функции на входе линейной системы найти характеристики случайной функции на выходе. Покажем сначала, что можно ограничиться решением этой задачи только для однородного оператора L, Действительно, пусть опера- тор L неоднороден и выражается формулой L {X (0| == Lo {X (0} +<р(О. (15.7.2) где Lq—линейный однородный оператор. <р(0— определенная неслу- чайная функция. Тогда ту (0 = М Щ И (О)] Т (0. (15.7.3) т. е. функция <р(0 просто прибавляется к математическому ожида- нию случайной функции на выходе линейной системы. Что же касается корреляционной функции, то, как известно, она не меняется от при- бавления к случайной функции неслучайного слагаемого. Поэтому в дальнейшем изложении под «линейными операторами» будем разуметь только линейные однородные операторы. Решим задачу об определении характеристик на выходе линей- ной системы сначала для некоторых частных видов линейных операторов.
394 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ случайных функции |ГЛ. 15 1. Интеграл от случайной функции Дана случайная функция X (/) с математическим ожиданием mx{t) и корреляционной функцией Kx(t, t'). Случайная функция У (t) свя- зана с X (/) линейным однородным оператором интегрирования; /(«) = ] A'(T)d-. (15.7.4) О Требуется найти характеристики случайной функции У (t): my(t) и Kx(t, t'). Представим интеграл (15.7.4) как предел суммы: Y(f) = f A'(x)riT= lim V Х(т,)Дг (15.7.5) О .„0 -I и применим к равенству (15.7.5) операцию математического ожида- ния. По теореме сложения математических ожиданий имеем; т (<) = Л4[К(/)]= lim V Д 1Л'(т,)] Дт = Лт-»О " t = lim V т (т,-) Дт = Г тЛчуек1). (15.7.6) л~° *-i J Итак, t my(t) = f mx(i)dT. (15.7.7) с т. е. математическое ожидание интеграла от случайной функ- ции равно интегралу от ее математического ожидания. Иными словами: операцию интегрирования н операцию математического ожи- дания можно менять местами. Это н естественно, так как операция интегрирования по своей природе ие отличается от операции сум- мирования, которую, как мы раньше убедились, можно менять местами с операцией математического ожидания. Найдем корреляционную функцию Ky(t, t'). Для этого перейдем к центрированным случайным функциям: X (0 = X (О — тЛ. (t), У (/) = У (Г) - ту (0. Нетрудно убедиться, что /(/) = jA(t)dt. (15.7.8) _______________о ') При этом мы предполагаем, что математическое ожидание предела равно пределу от математического Ожидания. На практике мы, как правило, имеем дело С функциями, для которых такая перестановка возможна.
18.7] линейные преовразования случайных функций 395 По определению корреляционной функции, Kv{t. О=ЛЦГ(/)Г(Г)1. где t г Й(о =/а-(т)Л; /(/') = fifi') Л'1). (15.7.9) О о Перемножим выражения (15.7.9): t г Y(О Y (0 = J X (t)dz f X(z'jdz'. (15.7.10) о о Нетрудно убедиться, что произведение двух интегралов в правой части формулы (15.7.10) равно двойному интегралу t г f f X(z)X(z')dzdz'. (15.7.11) о о Действительно, в связи с тем, что подынтегральная функция в инте- грале (15.7.11) распадается на два множителя, из которых первый зависит только от т, второй — только от т', двойной интеграл (15.7.11) распадается на произведение двух однократных интегралов (15.7.10). Следовательно, t г F (О Г «') = ] f X(z)X(z')dzdz'. (15.7.12) о о Применяя к равенству (15.7.12) операцию математического ожи- дания и меняя ее в правой части местами с операцией интегрирова- ния, получим: t г K,(t. i')=M[Y(t)Y(t')l = f f MlX(z)X(z')]dzdzr. о о или окончательно: t е Ky(t. t')=ff К„ (х, т') A dx’. (15.7.13) О о Таким образом, для того чтобы найти корреляционную функцию интеграла от случайной функции, нужно дважды проинтегри- ровать корреляционную функцию исходной случайной функции: сначала по одному аргументу, затем — по другому. *) Как известно, в определенной интеграле переменная интегрирования может быть обозначена любой буквой; в данном случае удобно обозначить ее 1 и t' соответственно.
330 ОБРАБОТКА ОПЫТОВ 1ГЛ. 14 По формуле (14.4.13) находим доверительный интервал для дисперсии /₽ = (0,045; 0,104). Соответствующий интервал для среднего квадратического отклонения: (0,21; 0,32). Этот интервал лишь незначительно превосходит полученный в примере 2 п° 14.3 приближенным методом интервал (0,21; 0,29). 14.5. Оценка вероятности по частоте На практике часто приходится оценивать неизвестную вероят- ность р события А по его частоте р‘ в п независимых опытах. Эта задача близко примыкает к рассмотренным в предыдущих п°п°. Действительно, частота события А в п независимых опытах есть не что иное, как среднее арифметическое наблюденных значений вели- чины X, которая в каждом отдельном опыте принимает значение 1. если событие А появилось, и 0. если не появилось: Р' = -~----- (И-5.1) Напомним, что математическое ожидание величины X равно р\ ее дисперсия pq. где q = 1 — р. Математическое ожидание среднего арифметического также равно р Л1[р*] = р, (14.5.2) т. е. оценка р* для р является несмещенной. Дисперсия величины р* равна ЩрТ=-^-- (14.5.3) Можно доказать, что эта дисперсия является минимально возмож- ной. т. е. оценка р* для р является эффективной. Таким образом, в качестве точечной оценки для неизвестной ве- роятности р разумно во всех случаях принимать частоту р*. Возни- кает вопрос о точности и надежности такой оценки, т. е. о построе- нии доверительного интервала для вероятности р. Хотя эта задача и представляет собой частный случай ранее рассмотренной задачи о доверительном интервале для математического ожидания. $се же целесообразно решать ее отдельно. Специфика здесь в том. что величина X— прерывная случайная величина только с двумя возможными значениями: 0 и 1. Кроме того, ее математи- ческое ожидание р и дисперсия pq — p(\—р) связаны функцио- нальной зависимостью. Это упрощает задачу построения доверитель- ного интервала.
14.51 ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 331 Рассмотрим сначала наиболее простой случай, когда число опы- тов п сравнительно велико, а вероятность р не слишком велика и не слишком мала. Тогда можно считать, что частота события р* есть случайная величина, распределение которой близко к нормаль- ном}' ’). Расчеты показывают, что этим допущением можно пользо- ваться даже при не очень больших значениях п: достаточно, чтобы обе величины пр и nq были больше четырех. Будем исходить из того, что эти условия выполнены и частоту р* можно считать рас- пределенной по нормальному закону. Параметрами этого закона будут: т,,. = р; ор. = (14.5.4) Предположим сначала, что величина р нам известна. Назначим дове- рительную вероятность р и найдем такой интервал (р—е , p-f-ep), чтобы величина р’ попадала в этот интервал с вероятностью (3: • />(!₽•-₽! <ер) = ₽. (14.5.5) Так как величина р* распределена нормально, то />(|P'-p|<es) = 2®-(ij-l=₽. откуда, как и в п° 14.3, arg Ф' где arg Ф* — функция, обратная нормальной функции распределения Ф*. Для определения р, как и в п° 14,3. можно обозначить /, = агеФ-(-Ц±). Тогда = (14.5.6) где / определяется из таблицы 14.3.1. Таким образом, с вероятностью р можно утверждать, что !₽•—₽1 (Н57) Фактически величина р нам неизвестна; однако неравенство (14.5.7) будет иметь вероятность р независимо от того, известна нам илн неизвестна вероятность р. Получив из опыта конкретное значение частоты р*. можно, пользуясь неравенством (14.5.7), найтн интервал /р, который с вероятностью р накрывает точку р. Действительно. *) Частота события при л опытах представляет собой прерывную слу- чайиую величину; говоря о близости ее закона распределения к нормаль- ному, мы имеем в виду функцию распределения, а не плотность.
332 ОБРАБОТКА ОПЫТОВ 1ГЛ. 14 преобразуем это неравенство к виду (Р* — Р)2 < Р (1 — Р) (14.5.8) и дадим ему геометрическую интерпретацию. Будем откладывать по осн абсцисс частоту р*. а по оси ординат — вероятность р (рис. 14.5.1). Геометрическим местом точек, координаты которых р* и р удовле- творяют неравенству (14.5.8), будет внутренняя часть эллипса, про- ходящего через точки (0, 0) и (1. 1) и имеющего в этих точках касательные, параллель- ные осн Ор\ Так как вели- чина р* не может быть ии отрицательной, ни большей единицы, то область D, со- ответствующую неравенству (14.5.8), нужно еще ограни- чить слева и справа прямыми р* = 0 н р* = 1. Теперь можно для любого значения р*. полу- Р“ ченного из опыта, построить доверительный интервал /р, ко- торый с вероятностью р накроет неизвестное значение р. Для этого проведем через точку р* прямую, параллельную оси ординат; на этой прямой границы области D отсекут доверительный интервал /ps==(pp р2) Действительно, точка М со случайной абсциссой р* и неслучайной (ио неизвестной) ординатой р с вероятностью р попадет внутрь эллипса, т. е. интервал с вероятностью (3 накроет точку р. Размеры и конфигурация «доверительного эллипса» зависят от числа опытов п. Чем больше п, тем больше вытянут эллипс и тем ^же доверительный интервал. Доверительные границы р1 и р2 можно найти из соотношения (14.5.8), заменив в нем знак неравенства равенством. Решая получен- ное квадратное уравнение относительно р, получим два корня: Pi = Р2 = _L_L_z 2 п Ч (14.5.9)
14.BJ ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 333 Доверительный интервал для вероятности р будет >f=lPt. Рг>- Пример 1. Частота события А в серии нз 100 опытов оказалась р* = 0.78. Определить 90%-й доверительный интервал для вероятности р со- бытия А. Решение. Прежде всего проверяем применимость нормального закона; для этого оценим величины пр и nq. Полагая ориентировочно р ss р\ получим пр « пр* = 78; nq » п (1 — р*) = 22. Обе величины значительно больше четырех; нормальный закон применим. Из таблицы 14.3.1 для р=0,9 находим t?—1,643. По формулам (14.5.9) имеем Pi = 0,705; р2 = 0.840; /р = (0,705; 0.840). 4 1 4 Заметим, что при увеличении л величины ~ и в формулах (14.5.9) стремятся к нулю; в пределе формулы принимают вид p.=p'+t^£^. (14.5.10) Эти формулы могут быть получены и непосредственно, если воспользоваться приближенным способом построения доверительного интервала для математического ожидания, данным в п° 14.3. Форму- лами (14.5.10) можно пользоваться при больших п (порядка сотен), если только вероятность р не слишком велика и не слишком мала (например, когда обе величины пр и nq порядка 10 или более). Пример 2. Произведено 200 опытов; частота события Л оказалась р* = 0,34. Построить 85%-й доверительный интервал для вероятности собы- тия приближенно (по формулам (14.5.10)). Сравнить результат с точным, соответствующим формулам (14.5.9). Решение. р = 0,о5; по таблице 14.3.1 находим /р = 1,439. Умножая его на __________ Р’О—Р’) ю0,0335, получим 4 а °'048, откуда находим приближенно доверительный интервал /р я (0,292; 0,388). По формулам (14.5.9) найдем более точные значения р} =0,294; р2 — 0,389, которые почти не отличаются от приближенных.
334 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 Выше мы рассмотрели вопрос о построении доверительного интер- вала для случая достаточно большого числа опытов, когда частоту можно считать распределенной нормально. При малом числе опытов (а также если вероятность р очень велика или очень мала) таким допущением пользоваться нельзя. В этом случае доверительный ин- тервал строят, исхода не из приближенного, а из точного закоиа распределения частоты. Нетрудно убедиться, что это есть биномиаль- ное распределение, рассмотренное в главах 3 и 4. Действительно, число появлений события А в п опытах распределено по биномиальному закону; вероятность того, что событие А появится ровно т раз, равна Р.,. = Ф"Г". (14.5.11) в частота р* есть не что иное, как число появлений события, делен- ное на число опытов. Исходя из этого распределения, можно построить доверительный интервал аналогично тому, как мы строили его. исхода из нор- мального закона для больших п (стр. 331). Предположим сначала, что вероятность р нам известна, и найдем интервал частот р*. р*, в который с вероятностью р= 1 —а попадет частота события р*. Для случая большого п мы пользовались нормальным законом рас- пределения и брали интервал симметричным относительно математиче- ского ожидания. Биномиальное распределение (14.5.11) не обладает симметрией. К тому же (в связи с тем, что частота — прерывная случайная величина) интервала, вероятность попадания в который в точ- ности равна 0, может и не существовать. Поэтому выберем в качестве интервала р*. р* самый малый интервал, вероятность попадания левее которого и правее которого будет больше Аналогично тому, как мы строили область D для нормального закона (рис. 14.5.1), можно- будет для каждого п и заданного 0 по- строить область, внутри которой значение вероятности р совместимо с наблюденным в опыте значением частоты р*. На рис. 14.5.2 изображены кривые, ограничивающие такие области для различных п при доверительной вероятности р = 0,9. По оси абсцисс откладывается частота р*. по оси ординат—вероятность р. Каждая пара кривых, соответствующая данному п, определяет довери- тельный интервал вероятностей, отвечающий данному значению частоты. Строго говоря, границы областей должны быть ступенчатыми (ввиду прерывности частоты), ио для удобства они изображены в виде плавных кривых. Для того чтобы, пользуясь такими кривыми, найти доверительный интервал /р, иужно произвести следующее построение (см. рис. 14,5.2): по оси абсцисс отложить наблюденное в опыте значение частоты р\
М.8] ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 335 провести через эту точку прямую, параллельную оси ординат, и отметить точки пересечения прямой с парой кривых, соответствующих данному числу опытов л: проекции этих точек на ось ординат и дадут границы р2 доверительного интервала /0. Рис. 14.5.2. Прм заданном л кривые, ограничивающие «доверительную область», определяются уравнениями: л 2 Срт(1 (14.5.12) т-ц £ С”рт (1-р)"-" = (14.5.13) т =0 где k — число появлений события: k = пр*. Разрешая уравнение (14.5.12) относительно р, можно найти нижнюю границу pj «доверительной области»; аналогично из (14.5.13) можно найти р2. Чтобы не решать эти уравнения каждый раз заново, удобно заранее еатабулировать (или представить графически) решения для нескольких
336 ОБРАБОТКА ОПЫТОВ (ГЛ. W типичных значений доверительной вероятности р. Например, а книге И. В. Дунина-Барковского и Н. В. Смирнова «Теория вероят- ностей н математическая статистика в технике» имеются таблицы /?, и р2 для р = 0,95 и р = 0.99. Из той же книги заимствован график рис. 14.5.2. Пример 3. Найти доверительные границы /?, и р3 для вероятности события, если в 50 опытах- частота его оказалась />* = 0,4. Доверительная вероятность ₽ = 0.9. Решение. Построением (см. пунктир на рнс. 14.5.2) для р* = 0,4 к п = 50 находим: pi » 0,28; ра ~ 0,52. Пользуясь методом доверительных интервалов, можно приближенно решить и другой важный для практики вопрос: каково должно быть число опытов п для того, чтобы с доверительной вероятностью р ожидать» что ошибка от замены вероятности частотой не превзойдет заданного значения? При решении подобных задач удобнее ле пользоваться непосред- ственно графиками типа рис. 14.5.2, а перестроить их. представив доверительные границы как функции от чнела опытов п. Пример 4. Проведено 25 опытов, в которых событие Л произошло 12 раз. Найти ориентировочно число опытов п, которое понадобится для того, чтобы с вероятностью ₽ = 0,9 ошибка от замены вероятности частотой не превзошла 20%. Решение. Определяем предельно допустимую ошибку: Д = 0,2 • 0,48 = 0,096 к 0,1. Пользуясь кривыми рис. 14.5.2, построим новый график: по оси абсцисс отложим число опытов л, по оси ординат — доверительные границы для вероят- ности (рис. 14.5.3). Средияя прямая, параллельная оси абсцисс, соответствует
M.BJ ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ 337 наблюденной частоте событии /?* = ^5 == 0,48. Выше и ниже прямой р = р* = = 0,48 проведены кривые pt (п) и р2(п), изображающие нижнюю и верхнюю доверительные границы в зависимости от о. Область между кривыми, спре- де 1яющая доверительный интервал, заштрихована, В непосредственной бли- зости от прямой р = 0.48 двойной штриховкой показана более узкая область 20%-й допустимой ошибки. Из рис. 14-5.3 видно, что ошибка падает до допустимой величины при числе опытов п порядка 100. Заметим, что после выполнения потребного числа опытов может понадобиться новая проверка точности определения вероятности по частоте, так как будет получено в общем случае уже другое значение частоты р\ отличное от наблюденного в ранее проведенных опытах. При этом может оказаться, что число опытов все еще и ед остаточно для обеспечения необходимой точности, и его придется несколько увеличить. Однако первое приближение, полученное описанным выше методом, может служить для ориентировочного предварительного пла- нирования серии опытов с точки зрения требуемого на них времени, денежных затрат и т. д. На практике иногда приходится встречаться со своеобразной зада- чей определения доверительною интервала для вероятности события, когда полученная из опыта частота равна нулю. Такая задача обычно связана с опытами, а которых вероятность интересующего нас события очень мала (или, наоборот, очень велика — тогда мала вероятность противоположного события). Пусть, например, проводятся испытания какого-то изделия на без- отказность работы. В результате испытаний изделие не отказало ни разу. Требуется найти максимальную практически возможную вероят- ность отказа. Поставим эту задачу в общем виде. Произведено п независимых опытов, ни в одном из которых событие А не произошло. Задана доверительная вероятность р, требуется построить доверительный интервал для вероятности р события А, точнее — найти его верхнюю границу р2, так как нижняя pt, естественно, равна нулю. Поставленная задача является частным случаем общей задачи о доверительном интервале дли вероятности, ио ввиду своих особен- ностей заслуживает отдельного рассмотрения. Прежде всего, прибли- женный метод построения доверительного интервала (на основе замены закона распределения частоты нормальным), изложенный в начале данного п°, здесь неприменим, так как вероятность р очень мала. Точный метод построения доверительного интервала на основе бино- миального распределения а даином случае применим, ио может быть существенно упрощен. Будем рассуждать следующим образом. В результате п опытов наблюдено событие В, состоящее в том, что А не появилось ни разу. Требуется найти максимальное значение р = р2, которое «совместимо» с наблюденным в опыте событием В. если считать
338 Обработка опытов ГГЛ. 14 «несовместимыми» с В те значения р, для которых вероятность события В меньше, чем а = 1—0. Очевидно, для любой вероятиости р события А вероятность наблюденного события В равна Р(В)=(Д—р)п. Полагая Р(_В) = а, получим уравнение для р2: откуда (1-р2)"=1-₽, (14.5.14) р2 = 1 — Vi —₽ (14.5.15) Пример 5. Вероятность р самопроизвольного срабатывания взрыва- теля при падении снаряда с высоты h неизвестна, но предположительно весьма мала. Произведен > 100 опытов, в каждом из которых снаряд роняли с высоты h, но ии в одном опыте взрыватель не сработал Определить верхнюю границу р2 90%-го доверительного интервала для вероятности р. Решение. По формуле (14.5.15) 100 и» ₽,= 1 — Vl—0.3 = 1— У0.1. 100 ___ 1g \Год = 0,011g 0,1 = 1,9900; 100 ___ КО, 1 я 0,977; р2 = 1 — 0,977 = 0,023. Рассмотрим еще одну задачу, связанную с предыдущей. Событие А с малой вероятностью р не наблюдалось в серии из п опытов ии разу. Задана доверительная вероятность 0. Каково должно быть число опытов п для того, чтобы верхняя доверительная граница для вероятности события была равна заданному значению р2? Решение сразу получается из формулы (14,5.14): Ig(l-P) lg (1—л) Пример 6. Сколько раз нужно убедиться в безотказной работе изде- лия для того, чтобы с гарантией 95% утверждать, что в практическом при- менении оно будет отказывать не более чем в 5% всех случаев? Решение. По формуле (14.5.16) При р = 0,95, р2 = 0,05 имеем; 1g 0.05 кол п = ~ 58,4. lg 0,9j Округляя в большую сторону, получим: (14.5.16) л = 59. Имея в виду ориентировочный характер всех расчетов подобного рода, можно предложить вместо формул (14.5.15) и (14.5.16) более простые приближенные формулы. Их можно получить, предполагая,
ОЦЕНКИ для ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛИЧИН 339 что число появлений события А при п опытах распределено по закону Пуассона с математическим ожиданием а=пр. Это предположение приближенно справедливо в случае, когда вероятность р очень мала (см. гл. 5. п° 5.9). Тогда Р (В)~ е-пр. и вместо формулы (14.5.15) получим: _ -ln(l-P) ' а вместо формулы (14,5.16) 1п(1- Р) Pi (14.5,17) (14.5.18) Пример 7. Найти приближенно значение р2 для условий примера 5. Решение. По формуле (14.5.14) имеем: _ — 1п0,1 2.303 Р2-----100~ “ "W °'023' т. е. тот же результат, который получен по точной формуле в примере 5. Пример 8. Найти приближенно значение л для условий примера 6. Решение. По формуле (14.5.18) имеем: — In 0,05 П~ 0,05 __ 2,996 “ 0.05 = 59,9. Округляя в большую сторону, находим л*=60. что мало отличается от ре- зультата л = 59, полученного в примере 6. 14.6. Оценки дли числовых характеристик системы случайных величии В поп° 14.1—14.4 мы рассмотрели задачи связанные с оценками для числовых характеристик одной случайной величины при ограни- ченном числе опытов и построением для этих характеристик дове- рительных интервалов. Аналогичные вопросы возникают и при обработке ограниченного числа наблюдений над двумя и более случайными величинами. Здесь мы ограничимся рассмотрением только точечных оценок для характеристик системы. Рассмотрим сначала случай двух случайных величин. Имеются результаты п независимых Опытов над системой случай- ных величин (Л, У), давшие результаты: (*!• S'i); {х,. У2); ...; (х„. у„). Требуется найти оценки для числовых характеристик системы: математических Ожиданий тх. ту. дисперсий Dx, и корреляцион- ного момента Кху
340 ОБРАБОТКА ОПЫТОВ [ГЛ 1« Этот вопрос решается аналогично тому, как мы решили его для одной случайной величины. Несмещенными оценками для математи- ческих ожиданий будут средние арифметические: 2х, 1=1 тг == —— х п 1=1 п, * (14.6.1) а для элементов корреляционной матрицы— '"J1 1=1. п— I ’ s^-s,)2 1 = 1. п— 1 * Ё(^-йх)(у(-й,) (14.0.2) Доказательство может быть проведено аналогично п° 14.2. При непосредственном вычислении оценок для дисперсий и кор- реляционного момента часто бывает удобно воспользоваться связью между центральными и начальными статистическими моментами: (14.6.3) где 2х, л Л 2-5 л 2 >5 2 Vi «и*- (14.6.4) Вычислив статистические моменты по формулам (14.6.3), можно затем найти несмещенные оценки для элементов корреляционной
14 Я ОПЕНКИ ДЛЯ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛИЧИН 341 матрицы по формулам; d ==о;— JT X п- (14.6.5) Пример. Произведены стрельбы с самолета по земле одиночными выстрелами, зарегистрированы координаты точек попадания и одновременно записаны соответствующие значения угла скольжения самолета. Наблюден- ные значения угла скольжения р (в тысячных радиана) н абсциссы точки попадания X (в метрах) приведены в таблице 14.6.1. Таблица 14=6.1 1 *1 i *1 *1 1 —8 —10 11 +3 —1 2 +10 —2 12 -2 +4 3 +1 13 +28 +12 4 -£22 +10 14 4-G2 4-20 3 —1 15 —10 —11 6 —311 —16 16 —к +2 7 —15 —8 17 +22 +14 8 +5 18 +‘i 9 •4-10 -й 19 —32 —12 10 +18 20 +8 +1 Найти оценки для числовых характеристик системы (3, X). Решение. Для наглядности наносим все пары значений (₽. X) на график (рис. 146.1) Расположение точек на графике уже свидетельст- вует о наличии определенной зависимости (положительной корреляции) между S и X. По формулам (14.6.1) вычисляем средние значения величин ₽ и X — оценки для математических ожиданий: Шр«=7,15; тж«=ОД Далее находим статистические вторые начальные моменты: = =581,8; го ^l^J = -^0“=85»4,
342 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 По формулам (14.6.3) находим статистические дисперсии: D* = 581,8 — 51.0 = 530,8; D* =85,4 — 0,2 — 85.2. Для нахождения несмещенных оценок умножим статистические дне- п 20 Персии на получим: Др = 559, Ьх — 89,7. Соответственно средние квадратические отклонения равны: а, = VSj = 23.6; "i, = 9,46. По последней формуле (14.6.4) находим статистический начальный момент; х У, да • <il?. *] = =190,8 Рис. 14.6.1. Иг? и статистический корреляционный момент: = “1.113. Х\ — т.тх = = 190,8 — 3.6=187.2. Для определения несмещен- ной оценки умножаем его на п 20. ----=- = -.77; получаем: П — 1 1У ^=197Д откуда оценка для коэффициента корреляции равна: ~ 1970 - пвд 23.6-9,46 ~°Ж Полученное сравнительно большое значение указывает на наличие существенной связи между ? и Л; на этом основании можно предполагать, что скольжение является основной причиной боковых отклонений снарядов. Перейдем к случаю обработки наблюдений над системой произ- вольного числа случайных величин. Имеется система т случайных величии (*,. Л2.......Хт). Над системой произведено п независимых наблюдений; резуль- таты этих наблюдений оформлены в виде таблицы, каждая строка которой содержит т значений, принятых случайными величинами Х2......Хт в одном наблюдении (табл. 14.6.2).
14.6] ОЦЕНКИ ДЛЯ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛИЧИН 343 Таблица 14.6.2 *2 хт 1 Х|, *21 Хщ Х,щ 2 *1» *22 *й2 хт2 ... i Х,1 Хн ... хщ xmi ... ... п *•1/1 ХЯп xkn ... Хтп Числа, стоящие в таблице и занумерованные двумя индексами, представляют собой зарегистрированные результаты наблюдений; пер- вый индекс обозначает номер случайной величины, второй—номер наблюдения, так что xkl — это значение, принятое величиной Хк в I м наблюдении. Требуется найти оценки для числовых характеристик системы: математических ожиданий , mXi.........тх и элементов корреля- ционной матрицы: JIM = ^11^12 • • • к^...к2,п ^тт По главной диагонали корреляционной матрицы, очевидно, стоят дисперсии случайных величин Хх, Л2. .... Xmz ^11—^1’ %22— ^2’ ^тт~^т- Опенки для математических ожиданий найдутся как средние ариф- метические: (Л = 1. 2.........т). (14.6.6)
р -------------------- 344 ОБРАБОТКА ОПЫТОВ [ГЛ. И Несмещенные оценки для дисперсий определятся по формулам Д>=<=1—я-1-------• (14'6*7> а для корреляционных моментов — по формулам Ktl = —-------------------• (14-68) По этим данным определяются оценки для элементов нормиро- ванной корреляционной матрицы: Г -Лч (14.6.9) (14.6.10) где = S, = Vd,. Пример. Сброшено 10 серий бомб, по 5 бомб в каждой, и зарегистри- рованы точки попадания. Результаты опытов сведены в таблицу 14.6,3. В таблице буквой I обозначен номер серии; А — номер бомбы в серии. Требуется определить подходящие значения числовых характеристик — математических ожиданий и элементов корреляционных матриц — для системы пяти случайных величин (А,, Ая. Ха. Xt, Хь) и системы пяти случайных величин (Г„ Уа. Ys, У4, Гб). Решение. Оценки для математических ожиданий найдутся как сред- ине арифметические по столбцам: mXi = — 74,3; mXj = —19,9; mXj = 27,7; ^ = 85,8; тх<==147Д тУ1 = — 3,9; ту> — —1.6; myt = 12,2; inyt — 13,3; = 9,9. При вычислении элементов корреляционной матрицы мы не будем, как в прежних примерах, пользоваться соотношениями между начальным ! и центральными моментами; в данном случае ввиду сильно изменяющихся ма- тема1ическнх ожиданий пользование этим приемом не даст преимуществ. Будем вычислять оценки для моментов непосредственно по формулам (14.6.2). Для этого вычтем нз каждого элемента таблицы 14.6.3 среднее значение соответствующего столбца. Результаты сведем в таблицу 14.6.4.
14 6] ОЦЕНКИ ДЛЯ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛИЧИН 345 Таблица 14.6.3 Абсцисса X Ордината Y 1 2 а 4 5 1 2 3 4 5 1 —120 —20 2 60 180 —20 —15 — 8 Q —2 2 —108 —75 —20 20 80 40 60 120 125 130 3 -200 —120 —80 —20 10 —25 —30 —20 —10 2 4 ,55 —2 40 120 200 —100 —75 - 35 2 2 5 5 60 100 165 220 —40 —30 —25 —30 6 —240 —202 —140 —88 -30 80 30 25 10 2 7 10 65 120 160 205 14 25 25 30 10 8 . -40 0 65 103 170 80 75 60 10 9 —100 —10 55 105 —70 —60 —30 —10 0 10 105 135 190 280 330 2 4 10 12 4 Таблица 14.G.4 г. _ гп у. — т . */ *k к1 УД I 1 2 3 5 1 2 3 4 1 5 1 —45,7 -О.1 —55.1 —25,7 —25,8 33,0 —16.1 —13,4 —20,2 —193 —11,9 2 —33.7 —37,7 —65.8 —67,0 43.9 61.6 107,8 1117 120,1 3 1—125,7 —100Д —107,7 —105.8 —137,0 —21.1 —28.4 —23,; -7.9 4 19,3 17.9 12.3 34,2 53.0 —96.1 —73.4 —47.2 —и: 1 —7.9 5 79.3 79,9 72,3 79.2 73,0 —36,1 —28,4 —37.2 —54.9 6 —165,7 —182.1 —167,7 -173.8 -177,0 83.9 31.6 12,8 О ' —7.9 7 84.3 84,9 92.3 74.2 58,0 17.9 26.6 12,8 16,7 0.1 8 31,3 19,9 37,3 17,2 23,0 83,9 76.6 47.8 —з; —13,9 9 -25.7 —20.1 —37,7 —30,8 —^2.0 —66.1 —58,4 —42,2 —23,< —9.9 10 179,3 154,9 1623 194,2 183,0 5.9 5.6 —2.2 —1.3 Возводя эти числа в квадрат, суммируя по столбцам и деля на л — 1=9, получим опенки для дисперсий и средних квадратических отклонений: DKf = 104,2 - Ю2; DXt = 94,4 . 10»; = 94.3 10»; Dx = 110,2 • 102; DXt = 114,4 . 102; ах=102; ах, = 97; оХ1=97; 5Х< = 105; ^=107. Dyi = 35,5 • 10’; DVi = 24.4 - 10* Гуз = 23,4 • 10’; 25у< = 19,6 • 10* = 20,1 - 102; % =60; ву# = 49; ау> = 48; ey< = 44; ayg—45. Чтобы найти Оценку для корреляционного момента, например, меж- ду величинами и л2, составим столбец попарных произведений чисел.
346 ОБРАБОТКА ОПЫТОВ (Г^ 14 стоящих в первом и втором столбцах таблицы 14.6.4'). Сложив все эш произведения и разделив сумму на п—1, получим: Rrr -=0,959-10*. Деля RXfX на ах°х? получим: Г_. а 0,97. Х|Ха Аналогично находим все остальные элементы корреляционных матриц. Для удобства умножим все элементы обеих матриц моментов иа 10-2. По- лучим; 104,2 96,0 98,4 105,1 106.9 94,4 93,2 107.0 101,1 94Д 102,0 99,2 110,2 108,2 111.4 35,5 27,8 22,9 11,0 8,3 24,4 21.4 13,0 10,2 23,4 17,4 17,2 19,6 19,3 20,1 (Ввиду симметричности матриц оии заполнены только наполовину.) Нормированные корреляционные матрицы имеют вид; 1,00 0,97 1,00 0,99 0,99 0,98 0,99 0.98 0,97 I7v,l= 1.00 0,98 1,00 0,96 0,97 1,00 1.00 0,94 0.76 0,42 0,31 1.00 0,89 0,59 0.46 lr,<yyG = 1,00 0,81 1,00 0,80 0,97 1,00 Рассматривая эти матрицы, убеждаемся, что величины (ЛГ,, Ха, X3.Xt,Xt) находятся в весьма тесной зависимое! и, приближающейся к функциональной; величины (У,, Уа» К3, У<» КБ) связаны менее тесно, н коэффициенты корре- ляции между ними убывают по мере удачеиия от главной диагонали корре- ляционной матрицы. ’) Если вычисление производится на арифмометре или клавишной счет- ной машине, то нет смысла выписывать отдельные произведении, а следует непосредственно вычислять суммы произведений, нс останавливаясь па про- межуточных результатах.
ОБРАБОТКА СТРЕЛЬБ 347 14.7. Обработка стрельб Одной из важных практических задач, возникающих при изучении вопросов стрельбы и бомбометания, является задача Обработки резуль- татов экспериментальных стрельб (бомбометаний). Здесь мы будем различать два случая: стрельбу ударными сна- рядами и стрельбу дистанционными снарядами. При стрельбе ударными снарядами рассеивание характеризуется законом распределения системы двух случайных величин: абсциссы и ординаты точки попадания на некоторой плоскости (реальной или воображаемой). При стрельбе дистанционными снарядами рассеивание носит пространственный характер j, и описывается законом распреде- ления системы трех координат точки разрыва снаряда. Рассмотрим сначала задачу обработки стрельб ударными сна- рядами. Пусть произведено п не- зависимых выстрелов по некото- рой плоской мишени и зареги- стрированы координаты п точек попадания (рис. 14.7.1): (х1» У1): (х2‘ Уг): •••! (.хп> УпУ • Рис. 14.7.1. Предполагая, что закон распределения системы (X. Y) нормаль- ный, требуется найти оценки для его параметров: координат центра рассеивания тх, ту, угла а. определяющего направление главных осей рассеивания В. *»J. и главных С.к.О. оЕ. с^. Начнем с рассмотреиия самого простого случая, когда направле- ние главных осей рассеивания известно заранее. Этот случай часто встречается иа практике, так как обычно направление главных осей рассеивания определяется самими условиями стрельбы (например, при бомбометании — направление полета и перпендикулярное к нему; при воздушной Стрельбе — направление поперечной скорости цели и перпендикулярное к нему и т. д,). В этом случае задача обработки стрельб сильно упрощается. Зная заранее хотя бы ориентировочно направление главных осей, можно выбрать координатные оси парал- лельно им; в такой системе координат абсцисса и ордината точки попадания представляют собой независимые случайные величины, и их закон распределения определяется всего четырьмя параметрами; координатами центра рассеивания и главными средними квадра- тическими отклонениями ох, оу. Оценки для этих параметров
348 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 определяются формулами (14.7.1) Рассмотрим более сложный случай, когда направление главных осей рассеивания заранее неизвестно и тоже должно быть опреде- лено из опыта. В этом случае определению подлежат оценки всех Рис 14.7 2. пяти параметров: координат центра рассеивания тг, ту, угла а и главных средних квад- ратических отклонений оЕ, а (рис. 14.7.2). Оценки для координат центра рассеивания в этом слу- чае определяются так же, как в предыдущем случае, по фор- мулам л л 2 2 1-1 . - /=1 "*» = п П • (14.7.2) Перейдем к оценке угла а. Предположим, что иаправления глав- ных осей рассеивания известны, и проведем через точку (тх, ту) главные оси ОЕ. О-ц (рис. 14.7.2). В системе 5Oij координаты слу- чайной точки (Л, F) будут: Е = (Л — тх) cos а (К — ту) sin а, 1 Н = — (Л — nx) sin а-р (К — my)cosa. J млн 2 = Xcosa+rsln«. 1 (Н73) И = — Aslna+Ecosa. | Очевидно, величины Е, Н будут иметь математические ожидания, равные нулю: М [Е| = М [Н] = 0.
М.71 ОБРАБОТКА СТРЕЛЬБ 349 Так как оси Оъ, Оц — главные оси рассеивания, величины Е, 1Г независимы. Но для величин, подчиненных нормальному закону, не- зависимость эквивалентна некоррелированности; следовательно, нам достаточно найти такое значение угла а, при котором величины Е. Н ие коррелированы. Это значение и определит направление главных осей рассеивания. Вычислим корреляционный момент величин (Н, Н). Перемножая равенства (14.7.3) и применяя к их произведению операцию матема- тического ожидания, получим: К^ = М [ЕН] = — М [Л2] sin a cos а 4- М [ХУ](соб?а— sin2 а) 4- 4- М [И2] sin a cos а = — у sin 2а (Г)х — £)у)4- /Сху cos 2а. Приравнивая это выражение нулю и деля обе части па cos 2a. имеем: ^2а = ОГ^О,- <14-7Л) Уравнение (14.7.4) даст два значения угла а: а, и а^, различаю- щиеся на Эти два угла и определяют направления главных осей рассеивания ’). Заменяя в равенстве (14.7.4) Кху, Dx, Dy их оценками, получим Оценку для угла а: Найдем оценки для главных средних квадратических отклоне- ний оЕ. а^. Для этого найдем дисперсии величин Е. Н, заданных формулами (14.7.3), по теореме о дисперсии линейной функции: Dz ~ Dx cos2 a -|- Dy sin2 a 4- 2Kxy sin a cos a; Dr = Dx sin2 a 4- Dy cos2 a — ^Kxy sin a cos a. Откуда находим оценки для главных дисперсий: ZX — Ьх cos2 а 4- sin 2’1 "+* sin2 I ~ ~ ~ ~ г (14 7 5) — Dxsln2a — /Cxysln 2a-|-£)ycos2a. | ') Заметим, что выражение (14.7.4) совпадает с приведенным в главе 9 выражением (9.2.2) дли угла а, определяющего направление осей симметрии эллипса рассеивания,
350 обработка опытов [ГЛ. 14 Оценки для главных средних квадратических отклонений выра- зятся формулами; (14.7.6) Выпишем отдельно полную сводку формул для обработки стрельб по плоской мишени в случае, когда направление главных осей рас- сеивания заранее неизвестно. Оценки искомых параметров опре- деляются формулами: У ч тх =-- ту = где а = — arctg —-тс—; 2 Б fix-Dy о£ = V Dx cos2a 4- Кху sin 2 и Dy sin2а; сч= V Ож51п2а—Кху sin2аcos2а. (14.7.7) У| (*/—тх)’ п — 1 2 (л — б,-'-1 1— 2 <х‘—й.)(У1—й,) ------- (14.7.8) В заключение следует заметить, что обработку стрельб по пол- ным формулам (14.7.7) имеет смысл предпринимать только тогда, когда число опытов достаточно велико (порядка многих десятков); только в этом случае угол а может быть оценен с достаточной точностью. При малом числе наблюдений значение а, полученное обработкой, является в значительной мере случайным. Задачу обработки стрельб дистанционными снарядами мы здесь рассмотрим только в простейшем случае, когда направление главных осей рассеивания (хотя бы ориентировочно) известно заранее. Как правило, встречающиеся в практике стрельбы дистанционными сна- рядами задачи обработки опытов относятси к этому типу. Тогда можно выбрать координатные оси параллельно главным осям рас- сеивания и рассматривать три координаты точки разрыва снаряда как независимые случайные аеличины.
14 8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 351 Пусть в результате п независимых выстрелов зарегистрированы координаты п точек разрыва дистанционных снарядов (xr у,, z,); (х2. у2. Zj); .... (х„. у„. zj в системе координат с осями, параллельными главным осям рассеи- вания. Оценки для параметров нормального закона определятся формулами: На решении задачи обработки стрельб дистанционными снарядами в случае, когда направления главных осей рассеивания заранее не- известны, мы останавливаться не будем, так как на практике эта задача встречаетсв сравнительно редко. 14.8. Сглаживание экспериментальных зависимостей по методу наименьших квадратов К вопросам, связанным с обработкой опытов, разобранным в дан- ной главе, близко примыкает вопрос о сглаживании эксперименталь- ных зависимостей. Пусть производится опыт, целью которого является исследование зависимости некоторой физической величины у от физической вели- чины х (например, зависимости пути, пройденного телом, от времени; начальной скорости снаряда от температуры заряда; подъемной силы от угла атаки и т. д.). Предполагается, что величины х и у связаны функциональной зависимостью: у—<еМ. (14.8.1) Вид этой зависимости и требуетси определить из опыта.
352 ОБРАБОТКА ОПЫТОВ ГГЛ М Предположим, что в результате опыта мы получили ряд экспери- ментальных точек и построили график зависимости у от х (рис. 14.8.1). Обычно Экспериментальные точки иа таком графике располагаются не совсем правильным образом — дают некоторый «разброс», т. е. обнаруживают случайные отклонения от видимой общей закономер- ошибками измерения. Возникает вопрос, как по этим экспериментальным данным наи- лучшим образом воспроизвести зависимость у от х? Известно, что через любые п точек с координатами (х{, у() всегда можно провести кривую, выражаемую аналитически полино- мом степени (п — 1), так, чтобы она в точности прошла через каж- дую из точек (рис. 14.8.2). Однако такое решение вопроса обычно не является удовлетворительным: как правило, нерегулярное поведение экспериментальных точек, подобное изображенному на рис. 14.8.1 и 14.8.2, связано не с объективным характером зависимости у от х, а исключительно с ошнбка- У ми измерения. Эго легко обнаружить» сравнивая на- блюденные уклонения (раз- брос точек) с примерно из- вестными ошибками изме- ригельной аппаратуры. Тогда возникает весьма типичная для практики зада- ча сглаживания экспе- ---------------------------------з: рнментальной зависимости. Рис 14 8 3 Желательно обработать экспериментальные данные так. чтобы по возможности точно отразить общую тенденцию зависимости у от х» но вместе с тем сгладить незакономерные, случайные уклоне- ния, связанные с неизбежными погрешностями самого наблюдения.
14.6] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 353 14.8.4, хорошо может быть предста- Для решения подобных задач обычно применяется расчетный метод, известный под названием «метода наименьших квадратов». Этот метод дает возможность при заданном типе зависимости у = у(х) так выбрать ее числовые параметры, чтобы иривая у = *р(х) в известном смысле иаилучщим образом отображала экспериментальные данные. Скажем несколько слов о том. нз каких соображений может быть выбран тип кривой у = <р(х). Часто этот вопрос решается непосред- ственно по внешнему виду экспериментальной зависимости. Например, экспериментальные точки, изображенные иа рис. 14.8.3, явно наводят на мысль о прямолинейной зависимости вида у = ах-|- Ь. Зависи- мость. изображенная на рис. влена полиномом второй сте- пени у = ах2 Ц-fcx-j- с. Если речь идет о периодической функции, часто можно вы- брать для ее изображения несколько гармоник триго- нометрического ряда и т. д. Очень часто бывает так, что вид зависимости (линей- ная, квадратичная, показа- тельная л т. д.) бывает из- вестен из физических сооб- ражений. связанных с су- ществом решаемой задачи, a i некоторые параметры этой Таблица 14.8.1 Рнс. 1484. из опыта требуется установить только I зависимости. Задачу о рациональном выборе та- ких числовых параметров при данном виде зависимости мы и будем решать в настоящем nJ. Пусть имеются результаты п неза- висимых опытов, оформленные в виде простой статистической таблицы (табл. 14.8-1), где I — номер опыта; х,— зна- чение аргумента; yt—соответствующее значение функции. Точки (хр у.) нанесены на график (рис. 14.8.5). Из теоретических или иных соо- бражений выбран принципиальный вид зависимости у=<р (х). Функция у=<р (х) содержит ряд числовых параметров выбрать эти параметры, чтобы кривая 1 Х1 >1 1 Х| У1 2 ха Уя 1 xi У1 ... п ХП Уп а» Ь, с, ... Требуется так У = <р(х) в каком-то смысле иан лучшим образом изображала зави- симость. полученную в опыте. 12 Теория вероятностей
354 ОБРАБОТКА ОПЫТОВ [ГЛ U Решение этой задачи, как и любой задачи выравнивания или сглаживания, зависит от того, что именно мы условимся считать «наилучшим». Можно, например, считать «нанлучшим» такое взаим- ное расположение кривой и экспериментальных точек, при котором максимальное расстояние между ними обращается в минимум; можно потребовать, чтобы в минимум обращалась сумма абсолютных величин отклонений точек от кривой и т. д. При каждом из этих требований мы получим свое решение задачи, свои значения параметров а. Ь. с, ... Однако общепринятым при решении подобных задач является так называемый ме- тод наименьших квадра- тов. при котором требова- ние наилучше го согласо- вания кривой у = <р(х) и экспериментальных точек сводится к тому, чтобы сумма квадратов откло- нений эксперименталь- ных точек от сглаживаю- щей кривой обращалась в минимум. Метод наимень- ших квадратов имеет перед другими методами сглаживания существенные преимущества: во-пер- вых. он приводит к сравнительно простому математическому способу определения параметров а, Ь. с. ...; во вторых, он допускает до- вольно веское теоретическое обоснование с вероятностной точки зрения. Изложим это обоснование. Предположим, что истинная зависи- мость у от х в точности выражается формулой у=<р(х); экспери- ментальные точки уклоняются от этой зависимости вследствие неиз- бежных ошибок измерения Мы уже упоминали о том, что ошибки измерения, как правило, подчиняются нормальному закону. Допустим, что это так. Рассмотрим какое-нибудь значение аргументах^. Результат опыта есть случапнап величина распределенная по нормальному закону с математическим ожиданием и со сред- ним квадратическим отклонением характеризующим ошибку из- мерения. Предположим, что точность измерения во всех точках оди- накова: °i = °2 = - • • =о„ — а. Тогда нормальный закон, по которому распределяется величина Yt, можно записать в виде: = г’“ (14.3.2)
11.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 355 В результате нашего опыта — ряда измерений — произошло следую- щее событие: случайные величины (Кр К2, ..Й„) приняли сово- купность значений (ур у2, .... ул). Поставим задачу: так подобрать математические ожидания ^(Хд), .... ^(хя), чтобы вероят- ность этого события была максимальна1). Строго говоря, вероятность любого из событий Yt = уР так же как и их совмещения, равиа нулю, так как величины Yt непре- рывны; поэтому мы будем пользоваться не вероятностями событий ^ = ур а соответствующими элементами вероятностей: ” аУ1. (14.8.3) о у Найдем вероятность того, что система случайных величин Fp К2» .... Yn примет совокупность Значений, лежащих в пределах (У<. У< + <ЗД (у=1. 2.....л). Так как опыты независимы, эта вероятность равна произведению элементов вероятностей (14.8.3) для всех значений I: » . [*<-*(*<№ -Ет2[>,1-»ег1)Г ——в 2°‘ dyt = Ke , (14.8.4) о у 2л где К — некоторый коэффициент, не зависящий от <?(х{). Требуется так выбрать математические ожидания у(хг), <р(х2), .. • .... <р(хд), чтобы выражение (14.8.4) обращалось в максимум. Величина я е 1=1 всегда меньше единицы; очевидно. Она имеет наибольшее вначение, когда показатель степени по абсолютной величине минимален: 2^- 21 ~ = mIn- - /«si Отсюда, отбрасывая постоянный множитель получаем требо- вание метода наименьших квадратов: для того чтобы данная сово- купность наблюденных значений Ур У2.......Ул была наивероятнейшей, нужно выбрать функцию ср(х) так, чтобы сумма квадратов отклонений наблюденных значений от (Хд) была минимальной: п S [У| — 'P(jci)]! = niln. ________________/=1 ’) Так называемый «принцип максимального правдоподобия».
35G ОБРАБОТКА ОПЫТОВ [ГЛ. 14 Таким образом обосновывается метод наименьших квадратов, исходя из нормального закона ошибок измерения и требования макси- мальной вероятности данной совокупности ошибок. Перейдем к задаче определения параметров а, Ь, с, ...» исходя из принципа наименьших квадратов. Пусть имеется таблица экспери- ментальных данных (табл. 14.8.1) и пусть из каких-то соображений (связанных с существом явления нлн просто с внешним видом наблю- денной зависимости) выбран общий вид функции у = ?(х), завися- щей от нескольких числовых параметров а, Ь, с, именно эти параметры и требуется выбрать согласно методу наименьших квадратов так, чтобы сумма квадратов отклонений yt от <?(*,) была минимальна. Запишем у как функцию не только аргумента х, но и параметров а. Ь. с, у=з<р(х; а. Ь. с. ...). (14.8,5) Требуется выбрать а. Ь. с. ... так, чтобы выполнялось условие: л X (У/ — Ф(**’. k с> ...)I2 = mln- (14.8.6) Найдем значения а, Ь, с... обращающие левую часть выражения (14.8.6) в минимум. Для этого продифференцируем ее по о, b, с, ... и приравняем производные нулю: л B’i—?(*/’• °- с« f=l л У} (?<—?(*<: с. ь, с. 1=1 <р(*<: о. ь. с. (14.8.7) где j = ?a(xr а, Ь, с. ...) — значение частной производной функ- ции 4? по параметру а в точке Xft *’*—аналогично. Система уравнений (14.8.7) содержит столько же уравнений, сколько неизвестный а. Ь. с, ... Решить систему (14.8.7) в общем виде нельзя; для этого необхо- димо задаться конкретным видом функции <р. Рассмотрим два часто встречающихся на практике случая: когда функция с линейна и когда она выражается полиномом второй сте- пени (параболой).
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 357 1. Подбор параметров линейной функции методом наименьших квадратов В опыте зарегистрирована совокупность значений (х{, у^ (1—1, 2, .... п; см. рис. 14.8.6). Требуется подобрать по методу наименьших квадратов пара- метры а. b линейной функции Подставляя в формулы (14.8.7), получим два уравнения для опре- деления а н Ь‘. 2 1У( — tax, + 6)| х, = О, 4=1 — (СХ, +6)| = о. 4=1 или, раскрывая скобки и производя суммирование, К П 1 2 х(у( — о 2 ~ 6 2] X, = О, 1-1 4=1 i = i У yt — а У х, — bn = 0. 4-1 4=1 (14.8.9) Разделим оба уравнения (14.8.9) на п: ^0. — Ь = 0. (14.8.10)
358 ОБРАБОТКА ОПЫТОВ [ГЛ 14 Суммы, входящие в уравнения (14.8.10), представляют собой не что иное» как уже знакомые нам статистические моменты: п п Ух, £х? —— = т',: —— = < | АГ1; п * п 2* ” л • л У si 2 xiyi —— — т’; !----— а* [АГ, F]. п у п I, 11 ’ 1 Подставляя эти выражения в систему (14.8.10), получим: а? JX. F] —caJ[X] —frmJ = 0, | . А п 1 (14 8.11) ту — атх — b — 0. | Выразим Ъ из второго уравнения (14.8.11) и подставим в первое: b = mJ — omj; a* j [X, F] — а а* [X ] — (mJ — am*) т* = 0. Решая последнее уравнение относительно а, имеем: _ а* , [X, FJ — mjn* а~ (14.8.12) Выражение (14.8.12) можно упростить, если ввести в него не началь- ные, а центральные моменты. Действительно, aifi [X, F] — т^ту — К^у» «2 [АГ]—= откуда где b = mJ — a mJ, (14.8.13) (14.8.14) Таким образом, поставленная задача решена, и линейная зависи- мость, связывающая у и х, имеет вид: «х» . . . у = —Г- X + m------г Г» . D. У D. *
14.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 359 или, перенося т’ в левую часть, у-т;=^(*-т9- (14.8.15) Мы выразили коэффициенты линейной зависимости через централь- ные, а не через начальные вторые моменты только потому, что в таком виде формулы имеют более компактный вид. Прн практическом примене- нии выведенных формул может оказаться удобнее вычислять моменты Кху и Dx не по формулам (14.8.14), а через вторые начальные моменты: (14.8.16) Для того чтобы формулы (14.8.16) не приводили к разностям близких чисел, рекомендуется перенести начало отсчета в точку, не слишком далекую от математи- ческих ожиданий m*. т*. 2. Подбор параметров параболы второго порядка методом наименьших квадратов В опыте зарегнстрнрованы зна- чения (jfg, ух) (Z= I, 2, ..п; см. рис. 14.8.7). Требуется мето- дом наименьших квадратов подо- брать параметры квадратичной функции — параболы второго по- рядка: у = ах2 Ьх + с. соответствующей наблюденной экспериментальной зависимости. Имеем: y^<p(jt; a, b, с) — ах2-[-Ьх-^-с, 4t=l; m=l ос \дс },
360 ОБРАБОТКА ОПЫТОВ Подставляя в уравнения (14.8.7). имеем: 2 [У,—(ех?+Ьх,+с)] Л-’=0. У. [у,—+ Лл, + с)| = 0. 2 [У,- — (с*? + »*,+«)] = °- или. раскрывая скобки, производя суммирование и деля на п. Коэффициенты этой системы также представляют собой статисти- ческие моменты системы двух величин X, Y, а именно: п п 2х, 2>/ X-L_=m; = a;[Xl; ii_ = ,e;=a;|ri; л л л 2 х? 2х? 2х? 2 хл 2 = a- , [X. n; = a- t [Д-. n. Пользуясь этими выражениями для коэффициентов через началь- ные моменты одной случайной величины н системы двух величин,
КЛ] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 361 можно придать системе уравнений (14,8.7) достаточно компактный вид. Действительно, учитывая, что a*[X]=l; a’ JX, И = в^1И и перенося члены, не содержащие неизвестных, в правые части, при- ведем систему (14.8.17) к виду: + + = < 1 [X. Г| a;ixia4-a2-[x^+a;[xic=a; jx, и. (14.8.18) Закон образования коэффициентов в уравнениях (14.8.18) нетрудно подметить: в левой части фигурируют только моменты величины X в убывающем порядке: в правой части стоят моменты системы (X. К), причем порядок момента пэ X убывает от уравнения к уравнению, а порядок по Y всегда остается первым1). Аналогичными по структуре уравнениями будут определяться коэффициенты параболы любого порядка. Мы видим, что в случае, когда экспериментальная зависимость выравнивается по методу наименьших квадратов полиномом некото- рой степени, то коэффициенты этого полинома находятся решением системы линейных уравнений. Коэффициенты этой системы линейных уравнений представляют собой статистические моменты различных порядков, характеризующие систему величин (X, Y), если ее рас- смотреть как систему случайных величин. Почти так же просто решается задача сглаживания эксперимен- тальной зависимости методом наименьших квадратов в случае, когда сглаживающая функция представляет собой не полином, а сумму про- извольных заданных функций 9,(х). %(*).......?л(х) с коэффици- ентами flj, а2, .... ак‘. у = <р(х; о1, а2, .... лл)==г ft = «iTi(A) + a2'ft(x)+ ••• 4-<4f.W = 2-(14 8-19) и когда требуется определить коэффициенты аг. ') Решения системы (14.8.18) относительно неизвестных а. Ь, с в общем виде мы не приводим, так как это решение слишком громоздко, а на прак- тике обычно удобнее решать систему (14.8.18) не с помощью определителей, а последовательным исключением неизвестных.
362 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 Например, экспериментальную зависимость можно сглаживать тригонометрическим полиномом ?(х; flj. с2. о3, с4) = = ах cos wx а2 sin ujx а3 соз 2шх 4- G4 s^n или линейной комбинацией показательных функций (х; а1( с2, а$) = ахе°14- a2efr 4- и т. д. В случае, если функция задается выражением типа (14.8.19), коэф- фициенты а,. о2» ...» ак находятся решением системы k линейных уравнений вида: 2 1»|-1«йМ+»й(*|)+ + <>».?» S’, (*/) = °. 1 = 1 2 {У/ —[‘‘i'fi(*l) + °2'f!(*/)+ +“/•?! (*;)]) T2(*j = O. 2 {>) —|O1<F1(-»1)-I-O«(*()+ ••• +<•*<?»(*|)1]т»(*1) = 0. Выполняя почленное суммирование, имеем: "i 2 ifi(*<)]’+«а2 ftWPiM-b ••• +“»2т*(л,)т,(х.) = 1=1 1=1 11 = 2 1=1 «1 2 <Fl(Jci)!?2(x<)+os2 [®2(*()]’+ +ot 2 Т»(^)¥2(Х() = 1=1 «=1 i=l = 2 у,ъ (*<)• п п п «1 2 V1 (*;)»» (*,) +- С2 2 ?2 (*i) Vt 1.x,) 4- ... + 2 I<Fi> (*<)1г = 1=1 1=1 1=1 п = 2 (•>-/)•
14.И СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 363 или, короче, k п п S ?, (*/)?/(*/) = 2 ум <xJ- in П 2 0/2 ч>2(-«/)<ру(*/)= 2 У/й (*/)• /=1 i=l i-1 (14.8.20) 2 O/jSiT*(-*4),P/(-*i>== 3 УЛ>*С*»>- Систему линейных уравнений (14.8.20) всегда можно решить и определить таким образом коэффициенты с(, о2, .... ак. Сложнее решается задача о сглаживании методом наименьших квадратов, если в выражение функции у==ф(х; о, Ь. с. ...) число- вые параметры а. Ъ, с,___входят нелинейно. Тогда решение си- стемы (14.8.7) может оказаться сложным и трудоемким. Однако и в этом случае часто удается получить решение задачи с помощью сравни- тельно простых приемов. Проиллюстрируем идею этих приемов на самом простом примере функции, нелинейно зависящей толь- ко от одного параметра а (напри- мер, у = е~ах' или у = sin ах, или Имеем: J ах I у = ?(*. о), (14.8.21) где а—параметр, подлежащий под- бору методом наименьших квадратов для наилучшего сглаживания задан- ной экспериментальной зависимости (рис. 14.8.8). Будем решать задачу следующим образом. Зададимся рядом зна- чений параметра а и для каждого из них найдем сумму квадратов отклонений yt от <р(хр о). Эта сумма квадратов есть некоторая функция а; обозначим ее £(о): п S (а) = 2 [У/ — <?(»/ 0)1’. /=1 Нанесем значение Е(а) иа график (рис. 14.8.9). То вначенне а, для которого кривая 2 (о) имеет минимум, и вы- бирается как подходящее значение параметра о в выражении (14,8.21).
364 ОБРАБОТКА ОПЫТОВ 1ГЛ. 14 Совершение так же, в принципе, можно, не решая уравнений (14.8.7), подобрать совокупность двух параметров (о, Ь}, удовлетворяющую принципу наименьших квадратов; работа при этом лишь незначительно усложнится и сведется к построению не одного, а нескольких гра- фиков (рис. 14.8.10); при этом придется искать со- вокупность значений а. Ь, обеспечивающую мини- мум минимального зна- чения суммы квадратов отклонений Е(а, Ь). Пример!. В опыте исследована зависимость глубины проникания Л тела в преграду от удельной энер- гии $ (энергии, приходя- щейся на квадратный сан- тиметр площади соударе- ния). Экспериментальные данные приведены в табли- Рис. 14.8. II. це 14.8.2 и на графике (рис. 14.8.11). Требуется по методу наименьших квадратов подобрать и построить пря- мую, изображающую зависимость Л от g. Решение. Имеем: я 164,4, 2137 13 Для обработки по начальным моментам переносим начало координат в близкую к средней точку: S о = 150; Лд20.
СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 365 Получаем новую таблицу значений величин: 3 5 — Jai h' — h — ha (гзбл. 14.8.3). Определяем моменты: * I ls'1 - -4з~ ~ 6869; DZ = 6869 — (т&, )2 = 6869 — (164,4 — 150)2 = 6662; 2 «И ! IS'. h’\ = - J3— « 842; Таблица 14.8.2 1 и<гм!смУ Й, (ЖЛ«> 1 41 4 2 50 8 3 81 ГО 4 104 14 120 15 6 139 20 7 154 19 8 180 23 9 208 26 10 241 30 и 250 31 12 269 36 13 301 37 Таблица 14.8.3 1 'n\—m\.tnh. = 842 — (164,4 — 150) (21,1 — 20) я «842—16 = 826. Уравнение прямой имеет вид: , /<£Л л-тл = -7^(б“Лс). или Л —21.1 =0,124(5 — 164,4). (14.8.22) Прямая (14.8.22) показана на рис. 14.8.11. П р и м е р 2. Произведен ряд опытов по измерению перегрузки авиа- ционной бомбы, проникающей в грунт, прн различных скоростях встречи. Полученные значения перегрузки N в зависимости от скорости v приведены в таблице 14.8.4. Построить по методу наименьших квадратов квадратичную зависи- мость вида: N = йо3 + bv -f- с, наилучшим образом согласующуюся с экспериментальными данными.
366 ОБРАБОТКА ОПЫТОВ [ГЛ. 14 Решение. В целях удобства обработки удобно изменить единицы из* мерения так, чтобы не иметь дела с многозначными числами; для этого можно значения v выразить в сотнях м/сек (умножить на IO”2), a N—в тысячах единиц (умножить на 10-3) и всю обработку провести в этих условных единицах. Находим коэффициенты уравнений (14.8.18). В принятых условных единицах: 2*4 ... i 362,95 O_OQ »4 [®1 ' —— = -д- = 25,92; М = —j—=—j4~ = 'О-60; Таблица 14.8.4 t v {м/сек} АГ 1 120 540 2 131 590 3 140 670 4 161 760 5 174 850 6 180 970 7 200 1070 8 214 1180 9 219 1270 10 241 1390 11 2.50 1530 12 268 1600 13 281 1780 14 300 2030 63.49 —гз— = 4,535; 14 . ?V' 2879 м==2.056- 2>< и®. = _JM3._i.uft 14 2®л «J. 1I®. W] = ~~ - = 2,629; S®!^ 411лЛ1|_±=вд=вд имеет вид: Система уравнений (14.8.18) 25,92а 4- 10.60ft + 4,535с = 6,287, 10,60а -J- 4,535ft + 2,056с = 2,629. 4,535а 4- 2,056ft 4- с = 1,159. Решая эту систему, находим: а « 0,168; b я ОД 02; с «0,187. На рис. 14.8.12 нанесены экспериментальные точки и зависимость N = av24"^ + c. построенная по методу наименьших квадратов. Примечание. В некоторых случаях может потребоваться провести кривую у = <р(х) так. чтобы она точно проходила через некоторые заданные заранее точки. Тогда некоторые из числовых параметров а, Ь;с, входя- щих в функцию у = ¥ (х), могут быть определены из этих условий.
14 8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 367 Например, в условиях примера 2 может понадобиться проэксграполиро- вать зависимость N (о) на малые значения v; при этом естественно провести параболу второго порядка так, чтобы она проходила через начало координат (т. е. нулевой скорости встречи соответствовала нулевая перегрузка). Тогда! естественно, с = 0 к зависимость N (о) приобретает вид: N = a v2 -J- bv, а система уравнений для определения а и b будет иметь вид; 25,92а 4-10,606 — 6.287, 10.60а 4- 4,5356 = 2,629. Пример 3. Конденсатор, заряженный до напряжения Uo — 100 вольт. разряжается через некоторое сопротивление. Зависимость напряжения и между обкладками конденсатора от времени t зарегистрирована иа участке времени 10 сек с интервалом 1 сек. Напряжение измеряется с точностью до 5 волып. Результаты измерений приведены в таблице 14.8.5. Согласно теоретическим данным, зависимость напряжения от времени должна иметь вид; Основываясь па опытных данных, подобрать методом наименьших квадратов значение параметра а. Решение. По таблицам функции е ~х убеждаемся, что е~* доходит при- близительно до 0,05 при х и 3; следовательно, коэффициент а должен иметь
368 ОБРАБОТКА ОПЫТОВ |ГЛ И порядок 0,3. Задаемся в районе а = 0,3 несколькими значениями а; а = 0,28; 0,29; 0,30; 0,31; 0,32; 0,33 и вычисляем для них значения функции U = U0e-ot в точках ti (табл. 14.8.6) В нижней строке таблицы 14.8.6 помещены значе- ния суммы квадратов отклонений 1(a) в зависимости от а. Рис. 14 8.13. График функции 1(a) приведен на рис. 14.8.13. Из графика видно, что значение а, отвечающее минимуму, приближенно равно 0,307. Таким образом,
М.8] СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ 369 по методу наименьших квадратов наилучшим приближением к опытным дан- ным будет функция U = Uое~^11. График этой функции вместе с экспери- ментальными точками дан на рнс. 14.8.14. Таблица 14.8.6 1 (1 п=0,28 в=0.29 а =0,Зл а =0,31 о =0,32 в=0,33 1 0 100.0 100,0 100,0 100,0 100.0 100,0 2 1 75,5 74,8 71,1 73,3 72,6 71.9 3 2 57,1 56.0 54,9 53,8 52,7 51,7 4 3 43.2 41.9 407 39,5 38,3 37.2 о 4 32.6 31,3 30.1 28,9 27,8 26.7 6 5 24.6 23.5 22,3 21,2 20.2 19,2 7 6 18.6 17,6 16,5 15.6 14,7 13,8 8 7 14,1 131 12,2 П.4 10,6 9.9 9 8 10,7 9,8 9.1 8,4 7.7 7,1 10 9 8,0 7,4 6,7 6,1 -5,6 5.1 11 10 6.1 5,5 5,0 4.5 4,1 3,7 1(a) 83,3 40,3 17,4 13,6 25,7 51,4
ГЛАВА 15 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ 15.1. Понятие о случайной функции До сих пор в нашем курсе теории вероятностей основным пред- метом исследования были случайные величины. Случайная величина характерна тем, что она в результате опыта принимает некоторое одно, заранее нензвестное, но единственное значение. Примерами таких случайных величин могут служить: абсцисса точки попада- ния при выстреле; ошибка радиодальномера при одном, единичном измерении дальности; горизонтальная ошибка наводки при одном выстреле и т. д. Ограничиваясь рассмотрением подобных отдельных случайных ве- личин, мы изучали случайные явления как бы «в статике», в ка- ких-то фиксированных постоянных условиях отдельного опыта. Однако такой элементарный подход к изучению случайных явле- ний в ряде практических задач является явно недостаточным. На практике часто приходится иметь дело со случайными величинами, непрерывно изменяющимися в процессе опыта. Примерами таких слу- чайных величин могут служить: ошибка радиодальномера прн непре- рывном измерении меняющейся дальности; угол упреждения при не- прерывном прицеливании по движущейся цели; отклонение траекто- рии управляемого снаряда от теоретической в процессе управления или самонаведения. Такие случайные величины, изменяющиеся в процессе опыта, мы будем о отличие от обычных случайных величин называть случай- ными функциями. Изучением подобных случайных явлений, в которых случайность проявляется в форме процесса, занимается специальная отрасль тео- рии вероятностей — теория случайных функций (иначе — теория слу- чайных или стохастических процессов). Эту науку можно образно назвать «динамикой случайных явлений». Теория случайных функций—новейший раздел теории вероятно- стей, развившийся, в основном, аа последние два-три десятилетия.
15.1] ПОНЯТИЕ О СЛУЧАЙНОЙ ФУНКЦИИ 371 В настоящее время эта теория продолжает развиваться и совершен- ствоваться весьма быстрыми темпами. Это связано с непосредственными требованиями практики, в частности с необходимостью решения ряда технических задач. Известно, что за последнее время в технике зсе большее распространение получают системы с автоматизированным управлением. Соответственно все ббльшие требования предъявляются к теоретической базе этого вида техники — к теории автоматиче- ского управления. Развитие этой теории невозможно без анализа ошибон, неизбежно сопровождающих процессы управления, которые всегда протекают в условиях непрерывно воздействующих случайных возмущений (так называемых «помех»). Эти возмущения по своей природе являются случайными функциями. Для того чтобы рацио- нально выбрать конструктивные параметры системы управления, необходимо изучить ее реакцию на непрерывно воздействующие слу- чайные возмущения, а единственным аппаратом, пригодным для такого исследования, является аппарат теории случайных функций. В данной главе мы познакомимся с основными понятиями этой теории и с общей постановкой ряда практических задач, требующих применения теории случайных функций. Кроме того, здесь будут изложены общие правила оперирования с характеристиками случайных функций, аналогичные правилам оперирования с числовыми характе- ристиками обычных случайных величин. Первым из основных понятий, с которыми нам придется иметь дело, является само понятие случайной функции. Это понятие на- столько же шире и богаче понятия случайной величины, насколько математические понятия переменной величины и функции шире и богаче понятия постоянной величины. Вспомним определение случайной величины. Случайной величиной называется величина, которая в результате опыта может принять то или иное значение, неизвестно заранее—какое именно. Дадим ана- логичное определение случайной функции. Случайной функцией называется функция, которая в результате опыта может принять тот или иной конкретный вид, неизвестно за- ранее— какой именно. Конкретный вид, принимаемый случайной функцией в результате опыта, называется реализацией случайной функции. Если над слу- чайной функцией произвести группу опытов, то мы получим группу или «семейство» реализаций этой функции. Приведем несколько примеров случайных функций. Пример I. Самолет-бомбардировщик на боевом курсе имеет теоретически постоянную воздушную скорость V. Фактически его скорость колеблется около этого среднего номинального значения и представляет собой случайную функцию времени. Полет на боевом курсе можно рассматривать как опыт, в котором случайная функция V (/) принимает определенную реализацию (рнс. 15.1.1). О г опыта
372 ОСНОВНЫЕ понятия ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЯ 1гл. ш к опыту вид реализации меняется. Если на самолете установлен самопишущий прибор, то он в каждом полете запишет новую, отлич- Рнс. 1Б.1.2. ную от других реализа- цию случайной функции. В результате нескольких полетов можно получить семейство реализаций слу- чайной функции V (t) (рис. 15.1.2). Пример 2. При на- ведении управляемого сна- ряда на цель ошибка на- ведения R (0 представ- ляет собой отклонение центра иксы снаряда от теоретической траекто- рии. т. е. случайную функ- цию времени (рис. 15.1.3). В том же опыте слу- чайными функциями вре- мени являются, например, перегрузка снаряда 2V(0, угол атаки а(0 и т. д. Пример 3. При стрельбе с самолета по самолету перекрестие прицела в течение некоторого времени должно непрерывно совмещаться с целью — следить за ней. Операция слежения за целью сопровождается ошибками—так называемыми ошибками на- водки (рис. 15.1.4). Горизонтальная и вертикальная ошибки наводки в процессе прицеливания непрерывно меняются и представляют собой две случайные функции X (0 и F (0. Реализации этих случайных фуик-
16.11 ПОНЯТИЕ О СЛУЧАЙНОЙ ФУНКЦИИ 373 ций можно получить в результате дешифровки снимков фотопулемета, фотографирующего цель в течение всего процесса слежения. Число примеров случайных функций, встречающихся в технике, можно было бы неограниченно увеличивать. Действительно, в любом случае, когда мы имеем дело с непрерывно работающей системой (системой измерения, управления, наведения, регулирования), при анализе точности работы этой системы нам приходится учитывать наличие случайных воздействий (помех). Как сами помехи, так и вызванная имн реакция системы представляют собой случайные функ- ции времени. До сих пор мы говорили только о случайных функциях, аргу- ментом которых является время I. В ряде задач практики встречаются случайные функции, зависящие ие от времен)!, а от других аргумен- тов. Например, характеристики прочности неоднородного стержня могут рассматриваться как случайные функции абсциссы сечения х. Температура воздуха в различных слоях атмосферы может рассмат- риваться как случайная функция высоты Н. На практике встречаются также случайные функции, зависящие не от одного аргумента, а от нескольких. Например, аэрологические данные, характеризующие состояние атмосферы (температура, давле- ние, ветер), представля'ют собой в общем случае случайные функции четырех аргументов: трех координат к, у, Z и времени t. В данном курсе мы будем рассматривать только случайные функ- ции одного аргумента. Так как этим аргументом чаще всего является время, будем обозначать его буквой I. Кроме того, условимся, как правило, обозначать случайные функции большими буквами (X(0. Y(t), ...) в отличие от неслучайных функций (х(0, у (0, ). Рассмотрим некоторую случайную функцию X (0. Предположим, что над ней произведено п независимых опытов, в результате кото- рых получено п реализаций (рис. 15.1.5). Обозначим их соответ- ственно номеру опыта х, (0, х2(0, .... хл(0.
374 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ 15 Каждая реализация, очевидно, есть обычная (неслучайная) функ- ция. Таким образом, в результате каждого опыта случайная функция X (() превращается в обычную, неслучайную функцию. Зафиксируем теперь некоторое значение аргумента t и посмотрим, во что превратится при этом случайная функция X (£)- Очевидно, она превратится в случайную величину в обычном смысле слова. Условимся называть эту случайную величину сечением случайной функции, соответствующим данному /. Если провести «сечение» се- мейства реализаций при данном t (рис. 15.1.5), мы получим п зна- чений, принятых случайной величиной X (t) в п опытах. Мы видим, что случайная функция совмещает в себе черты слу- чайной величины н функции. Если зафиксировать значение аргумента, она превращается в обычную случайную величину; в результате каждого опыта она превращается в обычную (неслучайную) функцию. В ходе дальнейшего изложения мы часто будем попеременно рас- сматривать одну и ту же функцию X (() то как случайную функцию, то как случайную величину, в зависимости от того, рассматри- вается лк она на всем диапазоне изменения t или при его фиксиро- ванном значении. 15.2. Понятие о случайной функции как расширение понятия о системе случайных величии. Закон распределения случайной функции Рассмотрим некоторую случайную функцию X (/) на определенном отрезке времени (рис. 15.2.1). Строго говоря, случайную функцию мы не можем изобра- жать с помощью кривой на графике; начертить мы можем лишь ее 1 \ \_____t—1—с- О t, t2 tj \ / \ j tjn-j tm Рис. (5.2.1. конкретные реализации. Однако в целях наглядности можно позволить сеje условно изобразить на чертеже случайную функцию X (Г) в виде кривой, понимая под этой кривой не конкретную реализации^ а всю 15.2] ЗАКОН РАСПРЕДЕЛЕНИЯ СЛУЧАЙНОЙ ФУНКЦИИ 375 совокупность возможных реализаций X (t). Эту условность мы будем отмечать тем, что кривую, символически изображающую случайную функцию, будем проводить пунктиром. Предположим, что ход изменения случайной функции регистри- руется с помощью некоторого прибора, который не записывает слу- чайную функцию непрерывно, а отмечает ее значения через определен- ные интервалы — в моменты времени t2........tm. Как было указано выше, при фиксированном значении t случай- ная функция превращается в обычную случайную величину. Следо- вательно, результаты записи в данном случае представляют собой систему т случайных величин: X(tt). X(tJ..... XftJ. (15.2.1) Очевидно, при достаточно высоком темпе работы регистрирующей аппаратуры запись случайной функции через такие интервалы даст достаточно точное представление о ходе ее изменения. Таким обра- зом, рассмотрение случайной функции можно с некоторым прибли- жением заменить рассмотрением системы случайных величин (15.2.1). По мере увеличения т такая замена становится все более и более точной. В пределе число значений аргумента — и соответственно число случайных величин (15.2.1) — становится бесконечным. Таким образом, понятие случайной функции можно рассматривать как естественное обобщение понятия системы случайных величин на слу- чай бесконечного (несчетного) множества величин, входящих в систему. Исходя нз такого толкования случайной функции попытаемся от- ветить на вопрос: что же должен представлять собой закон рас- пределения случайной функции? Мы знаем, что закон распределения одной случайной величины ecib функция одного аргумента, закон распределения системы двух величин — функция двух аргументов н т. д. Однако практическое пользование в качестве вероятностных характеристик функциями многих аргументов настолько неудобно, что даже для систем трех- четырех величин мы обычно отказываемся от пользования законами распределения и рассматриваем только числовые характеристики. Что касается закона распределения случайной функции, который пред- ставляет собой функцию бесчисленного множества аргументов, то такой закон в лучшем случае можно чисто формально записать в какой-либо символической форме; практическое же пользование подобной характеристикой, очевидно, совершенно исключено. Можно, однако, для случайной функции построить некоторые вероятностные характеристики, аналогичные законам распределения. Идея построения этих характеристик заключается в следующем. Рассмотрим случайную величину X (/) — сечение случайной функ- ции в момент t (рис. 15.2.2). Эта случайная величина, очевидно.
376 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЯ (ГЛ 15 обладает законом распределения, который в общем случае зависит от I. Обозначим его f(x, t). Функция f(x, t) называется одномер- ным законом распределения случайной функции X (0. Очевидно, функция f(x. t) не является полной, исчерпывающей характеристикой случайной функции X (0. Действительно, эта функ- ция характеризует только закон распределения X (0 дли данного. Рис. 13.2.2. хотя и произвольного t\ она не отвечает на вопрос о зависи- мости случайных величин X (t) при различных /. С этой точки зре- ния более полной характеристикой случайной функции X (0 является так называемый двумерный закон распределения: /(хр х2; 0. 0). (15.2.2) Это—закон распределения системы двух случайных величин X (0), X (0), т. е. двух произвольных сечений случайной функции X (0. Однако и эта характеристика в общем случае не является исчерпы- вающей; еще более полной характеристикой был бы трехмерный закон: / (хР х2, х3; 0. 0, /3). (15.2.3) Очевидно, теоретически можно неограниченно увеличивать число аргументов и получать при этом все более подробную, все более исчерпывающую характеристику случайной функции, но оперировать со столь громоздкими характеристиками, зависящими от многих аргу- ментов, крайне неудобно. Поэтому при исследовании законов рас- пределения случайных функций обычно ограничиваются рассмотрением частных случаев, где для полной характеристики случайной функции достаточно, например, знания функции (15.2.2) (так называемые «про- цессы без последействия»). В пределах настоящего элементарного изложения теории случайных функций мы вовсе не будем пользоваться законами распределения, а ограничимся рассмотрением простейших характеристик случайных функций, аналогичных числовым характеристикам случайных величин.
1БЗ] ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ФУНКЦИИ 377 16.3. Характеристики случайных функций Мы имели много случаев убедиться в том, какое большое значе- ние в теории вероятностей имеют основные числовые характеристики случайных величин: математическое ожидание и дисперсия—для одной случайной величины, математические ожидания и корреляцион- ная матрица —для системы случайных величин. Искусство пользо- ваться числовыми характеристиками, оставляя по возможности в сто- роне законы распределения, — основа прикладной теории вероятно- стей. Аппарат числовых характеристик представляет собой весьма гибкий и мещпый аппарат, позволяющий сравнительно просто решать многие прак- тические задачи. Совершенно аналогичным аппаратом пользуются и в теории случайных функций. Для случайных - функций также вводятся простейшие основные характеристики, аналогичные числовым ха- рактеристикам случайных ве- личин. и устанавливаются правила действий с этими характеристиками. Такой аппарат оказывается доста- точным для решения мно- Рис- 15.3.1. гих практических задач В отличие от числовых характеристик случайных величии, пред- ставляющих собой определенные числа, характеристики случайных функций представляют собой в общем случае не числа, а функции. Математическое ожидание случайной функции X (t) определяется следующим образом. Рассмотрим сечение случайной функции Х(£) при фиксированном t. В этом сечении мы имеем обычную случайную величину; определим ее математическое ожидание. Очевидно, в общем случае оно зависит от t, т. е. представляет собой некоторую функ- тж(0=Л1[Х(0]. (15.3.1) Таким образом, математическим ожиданием случайной функции X (f) называется неслучайная функция mr(f), которая при каждом значении аргумента t равна математическому ожиданию соответствующего сечения случайной функции. По смыслу математическое ожидание случайной функции есть некоторая средняя функция, около которой различным образом варьируются конкретные реализации случайной функции.
378 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ 1ГЛ. 15 На рис. 15.3.1 тонкими линиями показаны реализации случайной функции, жирной линией—ее математическое ожидание. Аналогичным образом определяется дисперсия случайной функции. Дисперсией случайной функции X(t) называется неслучай- ная функция Dx(t), значение которой для каждого t равно дисперсии соответствующего сечения случайной функции-. Dx(t) = D[X(t)\. (15.3.2) Дисперсия случайной функции при каждом t характеризует раз- брос возможных реали- Xf(t) Рис. 15.3.2. Рис. 15.3.3. заний случайной функции относительно среднего, иными словами, «степень случайности» случайной функции. Очевидно, Dx{t) есть неотрицательная функция. Извлекая из нее квадрат- ный корень, получим функцию ах (0 — среднее квадратическое отклоне- ние случайной функции: 0дО=/рдГ). (15.3.3) Математическое ожи- дание и дисперсия пред- ставляют собой весьма важные характеристики случайной функции; од- нако для описания основ- ных особенностей слу- чайной функции этих характеристик недоста- точно. Чтобы убедиться в этом, рассмотрим две случайные функции Хх (Q и X2(t). наглядно изо- браженные семействами реализаций на рис. 15.3.2 и 15.3.3. У случайных функций X^t) и Л2(0 примерно одинаковые мате- матические ожидания и дисперсии; однако характер этих случайных
15 31 ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ФУНКЦИИ 379 функций резко различен. Для случайной функции Xl(t) (рис. 15.3.2) характерно плавное, постепенное изменение. Если, например, в точке t случайная функция Хх (/) приняла значение, заметно превышающее среднее, то весьма вероятно, что и в точке t' она также примет значение больше среднего. Для случайной функции Хх (/) характерна ярко выраженная зависимость между ее значениями при различных t. Напротив, случайная функция Х2 (£) (рис. 15.3.3) имеет резко коле- бательный характер с неправильными, беспорядочными колебаниями. Для такой случайной функции характерно быстрое затухание зави- симости между ее значениями по мере увеличения расстояния по t между ними. Очевидно, внутренняя структура обоих случайных процессов со- вершенно различна, но это различие не улавливается ни математи- ческим ожиданием, ни дисперсией; для его описания необходимо ввести специальную характеристику. Эта характеристика называется корреляционной функцией (иначе — автокорреляционной функ- цией). Корреляционная функция характеризует степень зависимости между сечениями случай- ной функции, относящи- мися к различным £. Пусть имеется слу- чайная функция X (£) (рис. 15.3.4); рассмотрим два ее сечения, относя- щихся к различным мо- ментам: t и т. е. две случайные величины X (t) u X (Г). Очевидно, что при близких значениях t it V величины X (£) и X (!') связаны тесной зависимостью: если величина X (I) приняла какое-то значение, то и величина X (£') с большой вероятностью примет значение, близкое к нему. Очевидно также, что при увеличении интервала между сечениями I, t' зависи- мость величин X (I) и X Ц') вообще должна убывать. Степень зависимости величин X (£) и X (£') может быть в зна- чительной мере охарактеризована их корреляционным моментом; очевидно, он является функцией двух аргументов t и £'. Эта функ- ция и называется корреляционной функцией. Таким образом, корреляционной функцией случайной функ- ции X (t) называется неслучайная функция двух аргументов t'). которая при каждой паре значений t. t' равна кор реляционному моменту соответствующих сечений случай- ной функции-. Xft) Рис. 15.3.4. к At. о=л11Х(ол'а% (15.3.4)
380 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ 1ГЛ. 15 где X (0 = X (0 - тх (/). X (f) = X (Г) — тх (/'). Вернемся к примерам случайных функций Xl(t') и АГ2(О (рнс. 15.3.2 и 15.3.3). Мы видим теперь, что при одинаковых мате- матических ожиданиях и дисперсиях случайные функции Х2 (I) и Л2(0 имеют совершенно различные корреляционные функции. Кор- реляционная функция случайной функции Д', (/) медленно убывает по мере увеличения промежутка (t, 1'У, напротив, корреляционная функ- ция случайной функции X2(t) быстро убывает с увеличением этого промежутка. Выясним, во что обращается корреляционная функция Kx{t, t'), когда ее аргументы совпадают. Полагая t' = t. имеем: Кх (6 О = М1(Х (Г) fl == Dx (О. (15.3.5) т. е. При t'~t корреляционная функция обращается в дис- персию случайной функции. Таким образом, необходимость в дисперсии как отдельной харак- теристике случайной функции отпадает: в качестве основных харак- Рнс. 15.3.5, теристик случайной функции достаточно рассматривать ее математическое ожидание и корреляционную функцию. Так как корреляционный момент двух случайных вели- чии X (t) и X (I') не зависит от последовательности, в кото- рой эти величины рассматри- ваются, то корреляционная функция симметрична относи- тельно своих аргументов, т. е. не меняется при перемене аргу- ментов местами: KK(t. = t). (15.3.6) Если изобразить корреляционную функцию Kx(t, t') в виде по- верхности. то эта поверхность будет симметрична относительно вер- тикальной плоскости Q, проходящей через биссектрису угла tOt' (рис. 15.3.5). Заметим» что свойства корреляционной функции естественно вытекают из свойств корреляционной матрицы системы случайных величин. Действительно, заменим приближенно случайную функ- цию X (t) системой т случайных величин X (tj), X (t>)...X Прн увеличении т н соответственном уменьшении промежутков между
15 31 ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ФУНКЦИЙ 381 аргументами корреляционная матрица системы, представляющая собой таблицу о двух входах, в пределе переходит в функцию двух не- прерывно изменяющихся аргументов, обладающую аналогичными свой- ствами. Свойство симметричности корреляционной матрицы относи- тельно главной диагонали переходит в свойство симметричности корреляционной функции (15.3.6). По главной диагонали корреля- ционной матрицы стоят дисперсии случайных величин; аналогично при = Г корреляционная функция Kx(t. t') обращается в диспер- сию Ох(«). На практике, если требуется построить корреляционную функцию случайной функции X (t), обычно поступают следующим образом: задаются рядом равноотстоящих значений аргумента и строят корре- ляционную матрицу полученной системы случайных величии. Эта матрица есть не что иное, как таблица значений корреляционной функции для прямоугольной сетки значений аргументов на пло- скости (/, t'). Далее, путем интерполирования или аппроксимации можно построить функцию двух аргументов Кх (I, t'). Вместо корреляционной функции Kx(t. I') можно пользоваться нормированной корреляционной функцией: (15.3.7) которая представляет собой коэффициент корреляции величин X (Л. Л' (/')• Нормированная корреляционная функция аналогична норми- рованной корреляционной матрице системы случайных величии- При t'~ t нормированная корреляционная функция равна единице: - (f ______ ^Х 0 __ РХ (0 ___„ J /1 Е О о , r*"' V) [Or(0j2 — fCTjr(/)|a — *• (15.3.8) Выясним, как меняются основные характеристики случайной функции при элементарных операциях над нею: при прибавлении не- случайного слагаемого и при умножении на неслучайный множитель. Эти неслучайные слагаемые н множители могут быть как постоян- ными величинами, так в общем случае и функциями t. Прибавим к случайной функции X (О неслучайное слагаемое у (Z). Получим новую случайную функцию: » Г(О==хХ(О+фЮ. (15.3.9) По теореме сложения математических ожиданий: ту (0 = тЛ (t) т (Г). (15.3.10) т. е. при прибавлении к случайной функции неслучайного слагаемого к ее математическому ожиданию прибавляется то же неслучайное слагаемое.
382 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 13 Определим корреляционную функцию случайной функции Y [t)i Ky(t. ?У*=М\У (tyY(t'y\ = = M{(Y(ty —ту (0) (Г (О — ту (Г) )1 =• = М [(Л (I) + ? (0 — тх (0 — <f (0) (Л(Г) + Ф (Н — тпх (Г)—? (/0)] - = Л1[(Х(0 — тж(0)(АГ(О — пМ=КхУ. (15.3.11) т. е. от прибавления неслучайного слагаемого корреляцион- ная функция случайной функции не меняется. Умножим случайную функцию X ([) на неслучайный множи- тель <f(t): У(0 = ?(0А'(0. (15.3.12) Вынося неслучайную величину у(0 за знак математического ожида- ния. имеем: ту (0 == Л1 [Т (О X (01 = 9 (0 тх (0. (15.3.13) т. е. при умножении случайной функции на неслучайный мно- житель ее математическое ожидание умножается на тот же множитель. Определяем корреляционную функцию: Ку (t.t^MlY(0 Y(Г)1 = М [(У (0 — ту {t)){Y(Г) — ту (f))] = = Л1 [<₽ (0 <f (tf) (X (0 - тх (0 ) (X (40 - тх (*') )] = = Ф(О<Р(*0Л\(*. t'), (15.3.14) т. е. при умножении случайной функции на неслучайную функ- цию q(t) ее корреляционная функция умножается на (4)9(40. В частности, когда <р(0 = с (не зависит от 0. корреляционная функция умножается иа с2. Пользуясь выведенными свойствами характеристик случайных функций, можно в ряде случаев значительно упростить операции с ними. В частности, когда требуется исследовать корреляционную функцию или дисперсию случайной функции, можно заранее перейти от иее к так называемой центрированной функции-. X (0 = X (0 — тх (0. (15.3.15) Математическое ожидание центрированной функции тождественно равно нулю, а ее корреляционная функция совпадает с корреляцией-
15 41 ОПРЕДЕЛЕНИЕ ХАРАКТЕРИСТИК СЛУЧАЙНОЙ ФУНКЦИИ ИЗ ОПЫТА 383 ной функцией случайной функции X (/): K°(t. Г) = ^1^(ОА'(Г)1 = КЛ(/. Г). (15.3.16) Прн исследовании вопросов, связанных с корреляционными свой- ствами случайных функций, мы в дальнейшем всегда будем перехо- дить от случайных функций к соответствующим центрированным функциям, отмечая это значком ° вверху знака функции. Иногда, кроме центрирования, применяется еще нормирование случайных функций. Нормированной называется случайная функция вида: (15.3.17) Корреляционная функция нормированной случайной функции Хк (0 равна 1)- (15-3,18) а се дисперсия равна единице. 1Б.4. Определение характеристик случайной функции из опыта Пусть над случайной функцией X (О произведено п независимых опытов (наблюдений) и в результате получено п реализаций случай- ной функции (рис. 15.4.1). Требуется найти оценки для характеристик случайной функции: ее математического ожидания mx(t), дисперсии Dx(t) и корреля- ционной функции Kx{t, t'). Для этого рассмотрим ряд сечений случайной функции для ыо- хентов времени
384 ОСНОВНЫЕ понятия ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЯ (ГЛ. 15 и зарегистрируем значения, принятые функцией X(t) в эти моменты времени. Каждому иа моментов t2, ...» tm будет соответствовать л значений случайной функции. Значения t.2, .... 1т обычно задаются равноотстоящими; вели- чина интервала между соседними значениями выбирается в зависи- мости от вила экспериментальных кривых так. чтобы по выбранным точкам можно было восстановить основной ход кривых. Часто бывает так, что интервал между соседними значениями t задается независимо от задач обработки частотой работы регистрирующего прибора (на- пример. темпом киноаппарата). Зарегистрированные значения X (/) заносятся в таблицу, каждая строка которой соответствует определенной реализации, а число столб- цов равно числу опорных значений аргумента (табл. 15.4.1). Таблица 15.4.1 \ 1 ХИ|\ ?2 '* 'm Х|(0 ж, (Г.) х, РЛ . . . ж, Рп) X, (fl) x, P„,) *>Р) х,Р.) X,(h) X, Ы . . . Хг Vi) x2 (^m) ... ... . . . Xi W Xl Pi) Xi (>г) XI Р») Xl Vl) xi (fnii . . . Jr«(O •<ПР1) х„(1г) А„Р») . . . X„(tl) xn Gm) В таблице 15.4.1 в Z-й строке помещены значения случайной функции, наблюденной в Z-й реализации (Z-м опыте) при значениях аргумента fv t2, .... f,„. Символом x£(tft) обозначено значение, соот- ветствующее Z-й реализации в момент Полученный материал представляет собой не что иное, как ре- зультаты п опытов над системой т случайных величин А(/,). X(Z2), .... X(tm), м обрабатывается совершенно аналогично (ом. и° 14.3). Прежде всего находятся оценки для математических ожиданий по формуле 2-чР») = ---• (15.4)
16 5] МЕТОДЫ ОПРЕДЕЛЕНИЯ ХАРАКТЕРИСТИК 385 затем — для дисперсий (Ml3 = —I- (15.4.2) и, наконец, Д1я корреляционных моментов *,('*. '|) = l-tf (/*) — (/*)! [х, (/,) — тх (t,)\ (15.4.3) В ряде случаев бывает удобно при вычислении оценок для ди- сперсий и корреляционных моментов воспользоваться связью между начальными и центральными моментами и вычислять их по формулам; v (-MW12 О,('„) = - 1 - [«мчи2 л=Т: (15.4.4) УI xt (<>.) г, ((,) — (Ы ™Ж (Q п (15.4.5) п — 1 При пользовании последними вариантами формул, чтобы избежать разности близких чисел, рекомендуется заранее перенести начало отсчета по оси ординат поближе к математическому ожиданию. После того, как эти характеристики вычислены, можно, пользуясь рядом значений тх (/,). тх (t2), ...» тх (/„,), построить зависимость mx(t) (рис. 15.4.1). Аналогично строится зависимость Dx(t). Функция двух аргументов Kx{tt f) воспроизводится по ее значениям в прямо- угольной сетке точек. В случае надобности все этн функции аппро- ксимируются какими-либо аналитическими выражениями. 15.5. Методы определения характеристик преобразованных случайных функций по характеристикам исходных случайных функций В предыдущем п° мы познакомились с методом непосредственного определения характеристик случайной функции из опыта. Такой метод применяется далеко не всегда. Во-первых, постановка специальных опытов, предназначенных для исследования интересующих нас слу- чайных функций, может оказаться весьма сложной и дорогостоящей. Во-вторых, часто нам требуется исследовать случайные функции, характеризующие ошибки приборов, прицельных приспособлений, си- стем управления и т. д., еще не существующих, а только проекти- руемых или разрабатываемых. При этом обычно исследование этих ошибок и предпринимается именно для того, чтобы рационально вы- брать конструктивные параметры системы так, чтобы они приводили (J Теория вероятностей
386 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ ГГЛ. 15 к минимальным ошибкам. Ясно, что при этом непосредственное иссле- дование случайных функций, характеризующих работу системы, неце- лесообразно. а в ряде случаев вообще невозможно. В таких случаях в качестве основных рабочих методов применяются ле прямые, а кос- венные методы исследования случайных функций. Подобными кос- венными методами мы уже пользовались прн исследовании случайных величии: ряд глав нашего курса—гл. 10, 11. 12—был посвящен нахождению законов распределения и числовых характеристик слу- чайных величин косвенно, по законам распределения и числовым ха- рактеристикам других случайных величин, с ними связанных. Поль- зуясь совершенно аналогичными методами, можно определять харак- теристики случайных функций косвенно, по характеристикам других случайных функций, с ними связанных. Развитие таких косвенных методов и составляет главное содержание прикладной теории случай- ных функций» Задача косвенного исследования случайных функций на практике обычно возникает в следующей форме. Имеется некоторая динамическая система А; под «динамической системой» мы понимаем любой прибор, прицел, счетно-решающий механизм, систему автоматического управления и т. п. Эта система может быть механической, электрической или содержать любые дру- гие элементы. Работу системы будем представлять себе следующим образом: на вход системы непрерывно поступают какие-то входные данные; система перерабатывает их п непрерывно выдает некоторый результат. Условимся называть поступающие иа вход системы данные «воздействием», а выдаваемый результат «реакцией» системы на это воздействие. В качестве воздействий могут фигурировать изменяю- щиеся напряжения, угловые и линейные координаты каких-либо объек- тов, сигналы или команды, подаваемые на систему управления, н т. п. Равным образом и реакция системы может вырабатываться в той или иной форме: в виде напряжений, угловых перемещений и т. д. Например, для прицела воздушной стрельбы воздействием является угловая координата дви- жущейся цели, непре- рывно измеряемая в про- цессе слежения, реак- цией—угол упреждения. Рассмотрим самый Рис. 15.5. L простой случай: кргда на вход системы А подается только одно воздействие, представляющее собой функцию времени х (Л; реакция системы на это воздействие есть другая функция времени у (I). Схема работы системы А условно изображена на рис. 15.5.1. Булем говорить, что система А осуществляет над входным воз- действием некоторое преобразование, в результате которого
1Б.5] МЕТОДЫ ОПРЕДЕЛЕНИЯ ХАРАКТЕРИСТИК 387 функция х(1) преобразуется в другую функцию у (Г). Запишем это преобразование символически в виде: у(О = Я{х(/)). (15.5.1) Преобразование А может быть любого вида и любой сложности. В наиболее простых случаях это, напрнмер, умножение на заданный множитель (усилители, множительные механизмы), дифференцирование или интегрирование (дифференцирующие или интегрирующие устрой- ства). Однако на практике системы, осуществляющие а чистом виде такие простейшие преобразования, почти не встречаются; как правило, работа системы описывается дифференциальными уравнениями, и пре- образование А сводится к решению дифференциального уравнения, связывающего воздействие x(f) с реакцией y(t). При исследовании динамической системы в первую очередь решается основная задача: по заданному воздействию х(/) определить реакцию системы у (О- Однако для полного исследования системы и оценки ее технических качеств такой элементарный подход является недоста- точным. В действительности воздействие x(f) никогда не поступает на -yft) вход системы в чистом виде: оно всегда искажено некоторыми слу- чайными ошибками (воз- мущениями), в результате .. У ft) _ которых на систему фак- тически воздействует не ваданная функция х (t), ' а случайная функция X (0; соответственно этому си- рис 15 5 2. стема вырабатывает в ка- честве реакции случайную функцию У (t), также отличающуюся от теоретическсй реакции y(t) (рис. 15.5.2). Естественно возникает вопрос: насколько велики будут случайные искажения реакции системы при наличии случайных возмущений на ее входе? И далее: как следует выбрать параметры системы для того, чтобы эти искажения были минимальными? Решение подобных задач не может быть получено методами клас- сической теории вероятностей; единственным подходящим математи- ческим аппаратом для этой цели является аппарат теории случайных функций. Из двух поставленных выше задач, естественно, более простой является первая — прямая — задача. Сформулируем ее следующим образом. На вход динамической системы А поступает случайная функ- ция X (0; система подвергает ее известному преобразованию, в ре- зультате чего на выходе системы появляется случайная функция: Г(О = Л[Х(О}. (15.5.2)
388 основные понятия теории случайных функции 1гл. is Известны характеристики случайной функции X (t): математиче- ское ожидание и корреляционная функция. Требуется найти анало- гичные характеристики случайной функции V (/). Короче: по задан- ным характеристикам случайной функции на входе динамической си- стемы найти характеристики случайной функции на выходе. Поставленная задача может быть решена совершенно точно в одном частном, но весьма важном для практики случае: когда преобразо- вание А принадлежит к классу так называемых линейных преобразо- ваний и соответственно система- А принадлежит к классу линейных систем. Содержание этих понятий будет пояснено в следующем п°. 15.6. Линейные н нелинейные операторы. Оператор динамической системы При изложении теории преобразования случайных функций мы будем пользоваться широко применяемым в математике и технике понятием оператора. Понятие оператора является обобщением понятия функции. Когда мы устанавливаем функциональную связь между двумя переменными у н * и пишем: у=/(х), (15.6.1) то под символом f мы понимаем правило, по которому заданному значению х приводится в соответствие вполне определенное значе- ние у. Знак f есть символ некоторого преобразования, которому нужно подвергнуть величину X, чтобы получить у. Соответственно виду этого преобразования функции могут быть линейными и нели- нейными. алгебраическими, трансцендентными и т. д. Аналогичные понятии и соответствующая символика применяются в математике и в тех случаях, когда преобразованию подвергаются ие величины, а функции. Рассмотрим некоторую функцию x(f) и установим определенное правило А, согласно которому функция x(t) преобразуется в другую функцию у(0. Запишем это преобразование в следующем виде: у(О = Л(х(О}- (15-6.2) Примерами подобных преобразований могут быть, например» диф- ференцирование: у(0 = ^-. (15.6.3) интегрирование: t y(t) =2 J" x(x)tk. (15.6.4) о и т. д. Правило А, согласно которому функция x(t) преобразуется в функцию y(t). мы будем называть оператором', например, мы
15.6] ЛИНЕЙНЫЕ И НЕЛИНЕЙНЫЕ ОПЕРАТОРЫ 389 будем говорить: оператор дифференцирования, оператор интегриро- вания, оператор решения дифференциального уравнения и т. д. Определяя оператор, мы рассматривали только преобразование функции x(t) в другую функцию у того же аргумента t. Следует заметить, что такое сохранение аргумента при определении опера- тора вовсе не является обязательным: оператор может преобразовы- вать функцию x(t) в функцию другого аргумента у($), например: J|(S)= s)x(t)dt, (15.6.5) а где <р(Л s)— некоторая функция, зависящая, помимо аргумента еще и от параметра s. Но так как при анализе ошибок динамических систем наиболее естественным аргументом является время t, мы здесь ограничимся рас- смотрением операторов, преобразующих одну функцию аргумента t в другую функцию того же аргумента. Если динамическая система преобразует поступающую на ее вход функцию x(f) в функцию у(/): то оператор А называется оператором динамической системы. В более общем случае на вход системы поступает не одна. & несколько функций; равным образом на выходе системы могут появляться несколько функций; в этом случае оператор системы пре- образует одну совокупность функций в другую. Однако в целях простоты изложения мы рассмотрим здесь лишь наиболее элементар- ный случай преобразования одной функции в другую. Преобразования или операторы, применяемые к функциям, могут быть различных типов. Наиболее важным для практики является класс так называемых линейных операторов. Оператор L называется линейным однородным, если он обла- дает следующими свойствами: 1) к сумме функций оператор может применяться почленно: L {хг (t) + х2 (0} = L {(01 +< {х2 (01; (15.6.6) 2) постоянную величину с можно выносить за знак оператора: £{сх(01=с£{х(01. (15.6.7) Из второго свойства^ между прочим, следует, что для линейного однородного оператора справедливо свойство А{0} = 0, (15.6.8) т. е. при нулевом входном воздействии реакция системы равна нулю.
390 основные понятия теории случайных функции гл. 13 Примеры линейных однородных операторов: 1) оператор дифференцирования: У(0=^-: 2) оператор интегрирования: У (0 = J х (t) dv, о 3) оператор умножения на определенную функцию У (0 = <Р (0 х (I); 4) оператор интегрирования с заданным «весом» <p(t): t y(t)= f X (т) 9 (т) dx о и т. д. Кроме линейных однородных операторов, существуют еще линей- ные неоднородные операторы. Оператор L называется линейным неоднородным, если он со- стоит из линейного однородного оператора с прибавлением некото- рой вполне определенной функции <$>($): L {х(0) =£0 {х(О) + <р(О. (15.6.9) где Lo—линейный однородный оператор. Примеры линейных неоднородных операторов: 1)у(0 = -^Р-+ф(0. 2) У(0=/ *С')?(Т)'Й + Ч’1(0> 3) У У) — Ф1 (О X (0 + ч>2 (t). где <р(0, <Pj (/), <рз(О — вполне определенные функции, а x(t) — пре- образуемая оператором функция. В математике и технике широко применяется условная форма записи операторов, аналогичная алгебраической символике. Такая символика в ряде случаев позволяет избегать сложных преобразова- ний и записывать формулы в простой и удобной форме. Например, оператор дифференцирования часто обозначают буквой р: d Р=м- помещаемой в виде множителя перед выражением, подлежащим диф- ференцированию. При этом запись у(0 = рх (О
156] ЛИНЕЙНЫЕ И НЕЛИНЕЙНЫЕ ОПЕРАТОРЫ 391 равносильна записи y(0=-4ia. Двойное дифференцирование обозначается множителем р2: и т. д. Пользуясь подобной символикой, в частности» очень удобно за- писывать дифференциальные уравнения. Пусть, например, работа динамической системы А описывается линейным дифференциальным уравнением с постоянными коэффи- циентами, связывающими реакцию системы y(t) с воздействием х(/). Б обычной форме записи это дифференциальное уравнение имеет вид: +*.^ + “о>(0 = = »^+^^+...+^ + ^(0. 05.6Л0) В символической форме это уравнение может быть записано в виде: (олр«+ол_,р«-Ч- ... +OiP + Oo)y(0 = =(*™P'n+*™-iP'”-1+ ••• +M+*o)x(0. где р=-^—оператор дифференцирования. Обозначая для краткости полиномы относительно р, входящие в правую и левую части, Д, (Р) = °»Р"+°л-1Р'''1 + +О1Р + с0. = + ... +M + 6o- запишем уравнение в еще более компактной форме: A(p)y(O==Bm(p)x(O. (15.6.11) Наконец, формально разрешая уравнение (15.6.11) относи- тельно у(/). можно символически записать оператор решения линей- ного дифференциального уравнения в «явном» виде: (’Э.блз) \Р) Пользуясь аналогичной символикой, можно записать в оператор- ной форме и линейное дифференциальное уравнение с переменными
392 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ (ГЛ Г5 коэффициентами. В обычной форме это уравнение имеет вид: а-(<)+ °“-1 (04-------------------+ °>(Z) + а°(/)у(<) = + • • + М') "2’ (15.6.13) Обозначая многочлены относительно р. коэффициенты которых зависят от t Ап(Р. t) = a,,(t)pn +an_l(t)pn-} + ... -Ь ах (t) р + а,} (/). Bm(p. 0 = + ... + можно записать оператор дифференциального уравнения в виде: ,’(') = ‘хетгх(')- (15.6.14) В дальнейшем мы по мере надобности будем пользоваться такой символической формой записи операторов. Встречающиеся в технике динамические системы часто описываются линейными дифференциальными уравнениями. В этом случае, как нетрудно убедиться, оператор системы является линейным. Динамическая система, оператор которой является линейным, назы- вается линейной динамической системой. В противоположность линейным операторам н системам рассматри- ваются системы и операторы нелинейные. Примерами нелинейных операторов могут служить t у(0 = №(0, yW = fx3(z)dz. y(0 = sliix(0. О а также решение нелинейною дифференциального уравнения, хотя бы у' (О + a cos у (О = х(Г). Динамическая система, оператор которой не деляется линейным, называется нелинейной системой. На практике линейные системы встречаются очень часто. В связи с линейностью этих систем к анализу их ошибок может быть с большой эффективностью применен аппарат теории случайных функций. Подобно тому как числовые характеристики линейных функ- ций обычных случайных величин могут быть получены по числовым характеристикам аргументов, характеристики случайной функции на выходе линейной динамической системы могут быть определены, если известны оператор системы и характеристики случайной функции на ее входе.
16-7] ЛИНЕПНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИИ 393 Еще чаще, чем линейные системы, на практике встречаются системы не строго линейные, но в известных пределах допускающие линеари- зацию. Если случайные возмущения на входе системы достаточно малы, то практически любая система может рассматриваться — в пре- делах этих малых возмущений — как приближенно линейная, подобно тому как при достаточно малых случайных изменениях аргументов практически любая функция может быть линеаризована. Прием приближенной линеаризации дифференциальных уравнений широко применяется в теории ошибок динамических систем. В дальнейшем мы будем рассматривать только линейные (или линеаризуемые) динамические системы и соответствующие им линей- ные операторы. 15.7. Линейные преобразования случайных функций Пусть на вход линейной системы с оператором L воздействует случайная функция X (t). причем известны ее характеристики: мате- матическое ожидание mx(t) и корреляционная функция Kx(t. t'). Реакция системы представляет собой случайную функцию Г(0 = Д{Х(О|. (15.7.1) Требуется иайти характеристики случайной функции V (0 на выходе системы: my(t) и Л\(/. t'). Короче: по характеристикам слу- чайной функции на входе линейной системы найти характеристики случайной функции на выходе. Покажем сначала, что можно ограничиться решением этой задачи только для однородного оператора L. Действительно, пусть опера- тор L неоднороден и выражается формулой L{X(0}=£o{X(0}+<p(0. <15-7-2) где Lq—линейный однородный оператор. <р(0— определенная неслу- чайная функция. Тогда ту (О = М Щ {X (ПН + ? (О- (15-7.3) т- е. функция <р(0 просто прибавляется к математическому ожида- нию случайной функции на выходе линейной системы. Что же касается корреляционной функции, то, как известно, она не меняется от при- бавления к случайной функции неслучайного слагаемого. Поэтому в дальнейшем изложении под «линейными операторами» будем разуметь только линейные однородные операторы. Решим задачу об определении характеристик на выходе линей- ной системы сначала для некоторых частных видов линейных операторов.
394 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ случайных функции |ГЛ. 15 1. Интеграл от случайной функции Дана случайная функция X (t) с математическим ожиданием тх(0 и корреляционной функцией Кх(1. t'}. Случайная функция Y(0 свя- зана с X (0 линейным однородным оператором интегрирования; »'(«)=[ Л-(т)</-. (15.7.4) О Требуется найти характеристики случайной функции Y(t): mv(t) и К\(6 t'). Представим интеграл (15.7.4) как предел суммы: t Y(f)= f X{x)d- = lim V У(Т|)ДТ (15.7.5) o’ ..-.о и применим к равенству (15.7.5) операцию математического ожида- ния. По теореме сложения математических ожиданий имеем; ту (0 = М [ Y (0] = lim \ ЛТ1 Л' (:,)] Д-с — Аг-*U " I = lim У] (т,-) Дт = f mx(x)d\1'). (15.7.6) А-с-*С J Итак, t my(t) = J (15.7.7) С т. е. математическое ожидание интеграла от случайной функ- ции равно интегралу от ее математического ожидания. Иными словами: операцию интегрирования н операцию математического ожи- дания можно менять местами. Это и естественно, так как операция интегрирования по своей природе не отличается от операции сум- мирования, которую, как мы раньше убедились, можно менять местами с операцией математического ожидания. Найдем корреляционную функцию Ky(t, tr). Для этого перейдем к центрированным случайным функциям: X (0 = X (0 — тх (fy, Y(t)=Y (0 - ту (t). Нетрудно убедиться, что /(<) = J Л’(т:)Л. (15.7.8) _______________о ') При этом мы предполагаем, что математическое ожидание предела равно пределу от математического ожидания. На практике мы, как правило, имеем дело с функциями, для которых такая перестановка возможна.
18.7] ЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ 395 По определению корреляционной функции, t')=M[Y(t)Y(t')}. где t г Y(t) = fX(z)dz; Y(t')=f X(z')dz'>). (15.7.9) О о Перемножим выражения (15.7.9): t г Y(t)Y(t)= JX(z)dzf X(z')dz'. (15.7.10) О о Нетрудно убедиться, что произведение двух интегралов в правой части формулы (15.7.10) равно двойному интегралу t г f J X(z)X(z’)dzdz'. (15.7.11) О о Действительно, в связи с тем, что подынтегральная функция в инте- грале (15.7.11) распадается на два множителя, из которых первый вависит только от т, второй — только от т', двойной интеграл (15.7.11) распадается на произведение двух однократных интегралов (15.7.10). Следовательно, t г Y (/) Y (/') = ff X (т) X (т') dz dz'. (15.7.12) о о Применяя к равенству (15.7.12) операцию математического ожи- дания и меняя ее в правой части местами с операцией интегрирова- ния, получим: t г K,(t, t') = MlY(t)Y(f)l = f f M[X(z)X(z')]dzdz', о о или окончательно: f г «;(/, /') = / f К Az. z’ydzdz’. (15.7.13) о о Таким образом, для того чтобы найти корреляционную функцию интеграла от случайной функции, нужно дважды проинтегри- ровать корреляционную функцию исходной случайной функции: сначала по одному аргументу, затем — по другому. *) Как известно, в определенном интеграле переменная интегрирования может быть обозначена любой буквой; в данном случае удобно обозначить ее i и V соответственно.
396 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 1в 2. Производная от случайной функции Дана случайная функция X (t) с математическим ожиданием тх (t) и корреляционной функцией Kx(t, t'). Случайная функция Y (f) свя- зана со случайной функцией X (?) линейным однородным оператором дифферент! р овация: (15.7.14) Требуется найти my(t) и Ky(t, tr). Представим производную в виде предела: Y(t)= lim Л(< + Дд),-Л(<)-- (15.7.15) А/ ->0 Применяя к равенству (15.7.15) операцию математического ожи- дания, получим: гл,(О = ЛЦЕ(О1= 11m «+ДО-ДгОТ. = ^(0 к Итак, H1,(O= rf'”j/') , (15.7.16) т. е. математическое ожидание производной от случайной функции равно производной от ее математического ожидания. Следовательно, операцию дифференцирования, как и операцию инте- грирования. тоже можно менять местами с операцией математического ожидания. Для определения Ky(t, t') перейдем к центрированным случайным функциям Y (/) и X (t); очевидно, (15.7.17) По определению Ky(t. Г) = ЛП?(0Г(Г)1. Подставим вместо /(0 й У (О 1|Х выражения: ^О=Л1[Ф4(П]. Представим выражение под знаком математического ожидания в виде второй смешанной частной производной: dX(t) rfi(n _ УЛ(/)Х(П .. . di di' ~ dtot' ' (15.7.18) Мы доказали, что математическое ожидание производной случай- ной функции равно производной от математического ожидания, т. е. ’) См. сноску ’) на с гр. 394.
1Б.7] ЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИИ 397 анаки дифференцирования и математического ожидания можно менять местами. Следовательно, К,(«. «') = ,М[ ЛI* « *° = = И- (15.7.19) Таким образом, Ky(t. п= в‘Кмм‘"> • (15.7.20) Итак, чтобы найти корреляционную функцию производной, нужно дважды продифференцировать корреляционную функцию исходной случайной функции: сначала по одному аргументу, затем — по другому. Сравнивая правила нахождения математического ожидания и кор- реляционной функции для двух рассмотренных нами линейных одно- родных операторов, мы видим, что они совершенно аналогичны, а именно: для нахождения математического ожидания преобразованной случайной функции тот же линейный оператор применяется к мате- матическому ожиданию исходной случайной функции; для нахождения корреляционной функции тот же линейный оператор применяется дважды к корреляционной функции исходной случайной функции. В первом частном случае это было двойное интегрирование, во вто- ром— даойное дифференцирование. Можно доказать, что такое правило является общим для всех линейных однородных операторов ’) Мы здесь сформулируем это общее правило без доказательства. Если случайная функция X (t) с математическим ожиданием тх (/) и корреляционной функцией Kx(t, t'') преобразуется линейным одно- родным оператором L в случайную функцию Y (О = L {X (О). то для нахождения математического ожидания случайной функции Y(t) нужно применить тот же оператор к математическому ожиданию случайной функции X (f). my(f) = L[mx(f)}, (15.7-21) а для нахождения корреляционной функции нужно дважды применить тот же оператор к корреляционной функции случайной функции X (/), сначала по одному аргументу, затем — по другому: K„(t. = ‘И- (15.7.22) В формуле (15.7.22) значки (/). (/') у знака оператора L указы- вают. по какому аргументу он применяется. ‘) См., например, В. С. Пугачев, Теория случайный функций и ее применение к задачам автоматического управления, Физматгиз, 1960.
398 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. IS Во многих задачах практики нас, в конечном счете, интересует не корреляционная функция Ky{t. t') на выходе линейной системы, а дисперсия Dy (О. характеризующая точность работы системы в усло- виях наличия случайных возмущений. Дисперсию Dy(t) можно найти, виая корреляционную функцию: Dy(0 = tfy(6 f). (15.7.23) При этом нужно подчеркнуть, что, как правило, для определения дисперсии на выходе линейной системы недостаточно знать дисперсию на ее входе, а существенно важно знать корреляционную функцию. Действительно, линейная система может совершенно по-разному реагировать на случайные возмущения, поступающие на ее вход, в зависимости от того, какова внутренняя структура этих случайных возмущений; состоят ли они, например, по преимуществу из высоко- частотных нли низкочастотных колебаний. Внутренняя же структура случайного процесса описывается не его дисперсией, а корреляцион- ной фукцией. Пример. На вход дифференцирующего механизма поступает случайная функция X (0 с математическим ожиданием т к (f) — sin t к корреляционной функцией A'j, (<. = где Dx—постоянная дисперсия случайной функции Л'(О- Определить математическое ожидание н дисперсию иа выходе системы. Решение. Случайная функция ¥(0 на выходе системы (реакция) связана с воздействием Л(() оператором дифференцирования; Т(0 = ^*(0. Применяя общие правила, имеем; (0 “ COS / Л2 Ку V- *"> = «У *•''''> = [1 - 2а (Г - О’]. Полагая V — t, имеем: или, замечая, что Dy (f) не зависит от t, Итак, дисперсия на выходе дифференцирующего механизма зависит не только от дисперсии Е>х на входе, но также и or коэффициента а, характе- ризующего быстроту затухания корреляционной связи между сечениями случайной функции Л(0 при возрастании промежутка между ними. Если коэффициент а мал, корреляционная связь затухает медленно, случайная функция изменяется со временем сравнительно плавно, и. естественно, диф- ференцирование такой функции приводит к сравнительно малым ошибкам. Напротив, если коэффициент а велик, корреляционная функция убывает быстро; в составе случайной функции преобладают резкие, беспорядочные
1Б.81 СЛОЖЕНИЕ СЛУЧАЙНЫХ ФУНКЦИЙ 399 высокочастотные колебания; естественно, дифференцирование такой функции приводит к большим случайным ошибкам. В таких случаях обычно прибе- гают к сглаживанию дифференцируемой функции, т. е. так меняют оператор системы, чтобы он давал меньшие случайные ошибки на выходе- 15.8. Сложение случайных функций Во многих задачах практики ыы встречаемся с тем, что на вход динамической системы поступает не одна случайная функция X (0» а две или более случайные функции, каждая из которых связана с действием отдельного возмущающего фактора. Возникает задача сложения случайных функций, точнее — задача определения характе- ристик суммы по характеристикам слагаемых. Эта задача решается элементарно просто, если две складываемые случайные функции независимы (точнее, некоррелированны) между собой. В общем же случае для ее решения необходимо знание еще одн( Й характеристики — так называемой взаимной корреляционной функции (иначе — корреляционной функции связи). Взаимной корреляционной функцией двух случайных функций X (/) и Y (Г) называется неслучайная функция двух аргументов t и t*. которая при каждой паре значений t, t' равна корреляционному моменту соответствующих сечений случайной функции X (t) н слу- чайной функции X (01 Rx^t. П=ЛЧ*(0Г(ПЬ (15.8.1) Взаимная корреляционная функция, так же как и обычная кор- реляционная функция, не изменяется прн прибавлении к случайным функциям любых неслучайных слагаемых, а следовательно, и прн центрировании случайных функций. Из определения взаимной корреляционной функции вытекает сле- дующее ее свойство: ЯхУ(А П = ЯУл(*'> 0- (15.8.2) Вместо функции ₽ху(/, t') часто пользуются нормированной взаимной корреляционной функцией: моУЛ- (15 8 3) Если взаимная корреляционная функция равна нулю прн всех значе- ниях t, t', то случайные функции X (I) и Y (0 называются некорре- лированными (несвязанными). На практике обычно суждение о некоррелированности случайных функций составляют не на основании равенства нулю взаимной кор- реляционной функции, а, наоборот, взаимную корреляционную функцию полагают равной нулю на основании физических соображений, свиде- тельствующих о независимости случайных функций.
400 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ (ГЛ. 18 Пусть, например, два самолета обстреливают наземную цель; обозначим X{t). Y(t) углы пикирования первого и второго самолетов в процессе выполнения боевой операции. Если самолеты заходят на цель поодиночке, естественно считать случайные функции X (0 н Y (0 Некоррелированными; если же маневр выполняется самолетами сов- местно, причем один из них является ведущим, а другой — ведомым, очевидно наличие корреляционной связи между функциями X (0 и Y (t). Вообще, если из физических соображений, связанных с существом решаемой задачи, вытекает наличие зависимости между фигурирую- щими в задаче случайными функциями, то их взаимные корреляционные функции должны быть обследованы. Зная математические ожидания и корреляционные функции двух случайных функций X (0 и Y (0, а также их взаимную корреляцион- ную функцию, можно найти характеристики суммы этих двух слу- чайных функций: Z(0 = ?6(0-hr(0. (15.8.4) По теореме сложения математических ожиданий: тг(О = 'ял.(О4~'71) (0- (15.8.5) т. е. при сложении двух случайных функций их математи- ческие ожидания складываются. Для определения корреляционной функции Kx(t> t') перейдем к центрированным случайным функциям Z(0, X (t), Y(f). Очевидно, Z(0 = A'(0-hP(0. (15.8.6) По определению корреляционной функции Kz(t. Г) = .И |Z(t)Z(t')J = = Л! ЦХ(0 4- К (0) (* (04- Y (П )] = = Л! IX (t)X (t')J 4- Л11 Y(t) Y (t')l4- Al 1X (0 Y (DI 4- All X (t') Y (/)]. или Kx(t. O‘+A'y(t Od-^y(t 0 + ^(0 0* (15.8.7) Формула (15.8.7) аналогична формуле (10.2.7) для дисперсии суммы случайных величии. В случае, когда случайные функции X (0 и Y (0 некоррелиро- ваины, Rxy(t, t') = Q. и формула (15.8.7) принимает вид: К, (Г. O = K.r(^ И + О. (15.8.8) т. е. при сложении некоррелированных случайных функций их георреляционные функции складываются. Выведенные формулы могут быть обобщены на случай произволь- ного числа слагаемых. Если случайная функция X (0 есть сумма п
15 81 СЛОЖЕНИЕ СЛУЧАЙНЫХ ФУНКЦИИ 401 случайных функций: А-(0= А-ДО. (15.8.9) то ее математическое ожидание выражается формулой и,ОТ=2«х.(0. (15.8.10) *= I * а ее корреляционная функция — формулой п кх (t. Г) = 2 Ktt (t. f)+^RV/ (/. «'). (15.8.11) где суммирование распространяется па все возможные размещения индексов I ул j попарно. В случае, когда все случайные функции Xt(t) некоррелированны, формула (15.8.11) превращается в теорему сложения корреляцион- ных функций. п Kx{t, Г) = A'-ft Н. (15.8.12) i-l * т. е. корреляционная функция суммы, взаимно некоррелирован- ных случайных функций равна сумме корреляционных функций слагаемых. Формула (15.8.12) аналогична теореме сложения дисперсий для обычных случайных величин. Частным случаем сложения случайных функций является сложение случайной функции со случайной величиной. Рассмотрим случайную функцию X (t) с характеристиками mx(t) и Kx(t. У) и случайную величину Y с математическим ожиданием ту и дисперсией Dy. Предположим, что случайная функция X(f) н слу- чайная величина У некоррелированны, т. е. при любом t лцх(ои=о. Сложим случайную функцию X (t) со случайной величиной У; получим случайную функцию Z (0 = ^(0+Г. (15.8.13) Определим ее характеристики. Очевидно. mx(t) — mx(t)-l- тг (15.8.14) Чтобы найти Kz(tt t'), пользуясь теоремой сложения корреляцион- ных функций (15.8.8). рассмотрим случайную величину У как частный случай случайной функции, не меняющейся во времени, и найдем ее корреляционную функцию: K,(t. t') = М[У (?)У = М[У2\ = Оу. (15.8.15)
402 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ [ГЛ. 16 Применяя формулу (15.8.8), получим! Kg(t. t'}=Xx(t. т. е. при прибавлении к случайной функции некоррелированной с нею случайной величины к корреляционной функции при- бавляется постоянное слагаемое, равное дисперсии этой слу- чайной величины. 15.9. Комплексные случайные функции При практическом применении математического аппарата теории случайных функций часто оказывается удобным записывать как сами случайные функции, так н их характеристики не в действительной. а в комплексной форме. В свя- зи с этим необходимо дать определение комплексной слу- чайной величины и комплекс- ной случайной функции. Комплексной случайной ве- личиной называется случайная величина вида: Z = X±lY, (15.9.1) где X .Y — действительные слу- чайные величины: I — У—1 — мнимая единица. Комплексную случайную ве- Рис. 15.9.1, личину можно геометрически интерпретировать как случайную точку Z на плоскости хОу (рис. 15.9.1). Для того чтобы аппарат числовых характеристик был применим И к комплексным случайным величинам, необходимо обобщить основ- ные понятия математического ожидания, дисперсии и корреляционного момента на случай комплексных случайных величин. Очевидно, эти обобщения должны быть сделаны так, чтобы в частном случае, когда К = 0 н величина Z действительна, они сводились к обычным опре- делениям характеристик действительных случайных величин. Математическим ожиданием комплексной случайной вели- чины Z~X-\-iY называется комплексное число тг = тх-\-1ту. (15.9.2) Это есть некоторое среднее значение величины Z или. геометрически, средняя точка mt, вокруг которой происходит рассеивание случайной точки Z (рис. 15.9.1).
I6.SI КОМПЛЕКСНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ 403 Дисперсией комплексной случайной величины называется математическое ожидание квадрата модуля соответствующей центрированной величины’. £)z = Al[|Z]2], (15.9.3) где Z = Z — тг. Геометрически дисперсия комплексной случайной величины есть не что иное, как среднее значение квадрата расстояния от случайной точки Z до ее математического ожидания тл (рис. 15.9.1). Эта вели- чина характеризует разброс случайной точки Z Около среднего положения. Выразим дисперсию комплексной случайной величины через дис- персии ее действительной и мнимой частей. Очевидно. Z = Z — mz — X-\-iY — тх — imy = X-\-iY't отсюда D, = /И [|Z|2] = М Ь¥2-Ь У2] = М [X2] + М [У2] или О, = О^ + Оу, (15.9.4) т. е. дисперсия комплексной случайной величины равна сумме дисперсий ее действительной и мнимой частей. Из самого определения дисперсии следует, что дисперсия ком- плексной случайной величины всегда действительна и существенно положительна. Обращаться в нуль она может только в случае, если величина Z не случайна. Данные выше определения математического ожидания и дисперсии, очевидно, удовлетворяют поставленному требованию: при У = 0 и Z — X они превращаются в обычные определения математического ожидания и дисперсии действительной случайной величины. Попытаемся построить аналогичное определение корреляционного момента двух комплексных случайных величин Zx и Z2; ZT — Z2 = X2-\-tY2. (15.9.5) Это определение, очевидно, должно быть построено так. чтобы ври Z1 = Z2S^ корреляционный момент обращался в дисперсию величины Z. Оказывается, этому требованию нельзя было бы удо- влетворить, если бы мы, как в случае действительных величин, назвали корреляционным моментом математическое ожидание произ- ведения ZjZ2. Нетрудно убедиться, что при Z; —Z2=:Z математиче- ское ожидание такого произведения будет не действительным, а комплексным, т. е. уже не дает дисперсии, которая, согласно определению, действительна и существенно положительна. Этого не будет, если назвать корреляционным моментом математическое
404 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ [ГЛ [S ожидание произведения Z, не на самую величину Z2, а на соответ- ствующую ей комплексную сопряженную величину: Z2=AT2— IY2. (15.9.6) Тогда при Z1 = Z5===Z корреляционный момент, очевидно, обратится в дисперсию величины Z: Кг1= м 1(Х -НУ)(Х - /К)] = Л11X21+ Л1(И] = Dg. (15.9.7) Таким образом, целесообразно дать следующее определение кор- реляционного момента двух комплексных случайных величин Zj и Z2: (15.9.8) где чертой наверху обозначается комплексная сопряженная величина. Выразим корреляционный момент двух комплексных случайных величин через корреляционные моменты их действительных н мнимых частей. Имеем: К,А = М \Z.Z-A = М [(Л\ +1¥\) (Х2— /Г2)1 = = 4" Ку,у, +t (KViXi — Кх,у8)’ (15.9.9) где Kxixr XylVi. Kx,yt — соответственно корреляционные мо- менты, величин (ХР Х2). (Кр К2), (ЕР Х2). (Хр Ё2). Очевидно, в случае, когда все эти величины между собой не кор- релированье корреляционный момент величин Zp Z2 также равен нулю. Таким образом, определения основных характеристик комплексных случайных величин отличаются от обычных определений аналогичных характеристик для действительных величин только тем, что: 1) в качестве дисперсии рассматривается ие математическое ожи- дание квадрата центрированной случайной величины, а математи- ческое ожидание квадрата ее модуля; 2) в качестве корреляционного момента рассматривается ие мате- матическое ожидание произведения центрированных величин, а мате- матическое ожидание произведения одной центрированной величины на комплексную сопряженную другой. Перейдем к определению комплексной случайной функции н ее характеристик. Комплексной случайной функцией называется функция вида: Z (0 = X (t) +1Y (t). (15.9.10) где X (f), Е(0— действительные случайные функции. Математическое ожидание комплексной случайной функции (15.9.10) равно; + (15.9.11)
1В.®] КОМПЛЕКСНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ 405 Дисперсия комплексной случайной функции Z (/) определяется как математическое ожидание квадрата модуля соответствующей центри- рованной функции: £>г(0 = Л1[|£(/)|21. (15.9.12) где Z (0 = Z (/) — тг (t) = X(f) + & (С- (15.9.13) Из определения (15.9.12) видно. что дисперсия комплексной случай- ной функции действительна и неотрицательна. Из формулы (15.9.4) следует, что дисперсия комплексной слу- чайной функции равна сумме дисперсий ее действительной н мнимой частей: Ог(/) = РХ(0 + ^У(0. (15.9.14) Корреляционная функция комплексной случайной функции опре- деляется как корреляционный момент ее сечений t и t'\ Kz(t. f) = Al{Z(0Z(f)l. (15.9.15) где Z(r) = X(f)—/К(Г) — комплексная величина, сопряженная величине Z (/''). При t' — t корреляционная функция, очевидно, обращается в дис- персию: Kz(t, t) = Dz(t). (15.9.16) Пользуясь формулой (15.9.9), можно выразить корреляционную функцию комплексной случайной функции через характеристики ее действительной и мнимой частей. Рассматривая в качестве случайных величин Zj и Z2, фигурирующих в этой формуле, сечения случайной функции Z(0 и Z(£')> получим: Kz{t. n = Kx(t. О+К/Л ^)4-/{/?гу(Г. /) — Rxy{f. /')}, (15.9.17) где Rxy(t, tr) — взаимная корреляционная функция случайных функ- ций X (t) и Y (0 (действительной и мнимой частей случайной функ- ции Z(0>- В случае, когда действительная и мнимая части случайной функ- ции не коррелированы (Ялу(/, — формула (15.9.17) имеет вид: Kx(t. Г)-ЬКУ(/, t'). (15.9.18) В дальнейшем изложении мы будем пользоваться как действи- тельной, так и комплексной формой записи случайных функций. В последнем случае мы будем всегда оговаривать это.
ГЛАВА ia КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ 16.1. Идея метода канонических разложений. Представление случайной функции в виде суммы элементарных случайных функций В п° 15.7 мы познакомились с общими правилами линейных пре- образований случайных функций. Эти правила сводятся к тому, что при линейном преобразовании случайной функции ее математическое ожидание подвергается тому же линейному преобразованию, а кор- реляционная функция подвергается этому преобразованию дважды: по одному н другому аргументу. Правило преобразования математического ожидания очень просто и при практическом применении затруднений не вызывает. Что ка- сается двойного преобразования корреляционной функции, то оно в ряде случаев приводит к чрезвычайно сложным и громоздким опе- рациям, что затрудняет практическое применение изложенных общих методов. Действительно, рассмотрим, например, простейший интегральный оператор: , Г(0 = / X(x)dx. (16.1.1) О Согласно общему правилу корреляционная функция преобразуется тем же оператором дважды: K,(f, f) = J J Кж(х. t')dxdt'. (16.1.2) О о Очень часто бывает, что полученная из опыта корреляционная функция Kx(t, t') не имеет аналитического выражения и задана таблично; тогда интеграл (16.1.2) приходится вычислять численно, определяя его как функцию обоих пределов. Это — задача очень
16 и ПРЕДСТАВЛЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ В ВИДЕ СУММЫ 407 метод канонических громоздкая и трудоемкая. Если даже аппроксимировать подынте- гральную функцию каким-либо аналитическим выражением, то и в этом случае чаще всего интеграл (16.1.2) через известные функции не выражается. Так обстоит дело даже при простейшей форме опера- тора преобразования. Если же, как часто бывает, работа динами- ческой системы описывается дифференциальными уравнениями, реше- ние которых не выражается в явной форме, задача об определении корреляционной функции на вы- ходе еще более осложняется: она требует интегрирования диф- ференциальных уравнений с част- ными производными. В связи с этим на практике применение изложенных общих методов линейных преобразова- ний случайных функций, как правило, оказывается слишком сложным и себя не оправдывает. Прн решении практических задач значительно чаще применяются другие методы, приводящие к бо- лее простым преобразованиям. Один из них—так называемый кий, разработанный В. С. Пугачевым, н составляет содержанке данной главы. Идея метода канонических разложений состоит в том, что слу- чайная функция, над которой нужно произвести те или иные преоб- разования, предварительно представляется в виде суммы так назы- ваемых элементарных случайных функций. Элементарной случайной функцией называется функция вида: X(t) = Vv(ft, (16.1.3) где V — обычная случайная величина, (0 — обычная (неслучайная) функция. Элементарная случайная функция является наиболее простым»ти- пом случайной функции. Действительно, в выражении (16.1.3) слу- чайным является только множитель V. стоящий перед функцией ф(0; сама же зависимость от времени случайной не является. Все возможные реализации элементарной случайной функции X (t) могут быть получены из графика функции x = <p(t) простым изме- нением масштаба по оси ординат (рнс. 16.1.1). При этом ось абсцисс (х = 0) также представляет собой одну из возможных реализаций случайной функции X (0. осуществляющуюся, когда случайная вели- чина V принимает значение 0 (если это значение принадлежит к числу возможных значений величины V).
408 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ |ГЛ 10 В качестве примеров элементарных случайных функций приведем функции .Д'(/) — И sin / (рис. 16.1.2) и A'(Z) — VP (рнс. 16.1.3). Элементарная случайная функция характерна тем, что в пей раз- делены две особенности случайной функции: случайность вся сосре- доточена в коэффициенте а зависимость от времени — в обычной функции Определим характеристики элементарной случайной функции (16.1.3). Имеем: тх (0 = [V? (/)! = т„т (0. где mv— математическое ожидание случайной величины V. Если mv = 0. математическое ожидание случайной функции X (Г) также равно нулю, причем тождественно: mx(t)==0. Мы знаем, что любую случайную функцию можно центрировать, Т. е. привести к такому виду, когда ее математическое ожидание равно нулю. Поэтому в дальнейшем мы будем рассматривать только центрированные элементарные случайные функции, для которых mv = Q\ V=V; mx(t)~0. Определим корреляционную функцию элементарной случайной функции X (/). Имеем: Кх (/, Г) = Л1 [ X (0 X (/')] == ? (/) ? (Г) Л1 [V^l = <? (0 <? (Г) D. где D — дисперсия величины V. Над элементарными случайными функциями весьма просто вы- полняются всевозможные линейные преобразования. Например, продифференцируем случайную функцию (16.1.3). Слу- чайная величина V. не зависящая от /. выйдет за знак производной, и мы получим: te.fl ПРЕДСТАВЛЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ В ВИДЕ СУММЫ 409 Аналогично t t J X(0<ft = V J ср (т) dx. о о Вообще, если элементарная случайная функция (16.1.3) преобра- зуется линейным оператором L. то прн этом случайный множитель V. как не зависящий от t. выходит за знак оператора, а неслучайная функция <р (О преобразуется тем же оператором L: £{X(0}=V7.{cp(0}. (16.1.4) Значит, если элементарная случайная функция поступает иа вход линейной системы, то задача ее преобразования сводится к простой задаче преобразования одной неслучайной функции q(t). Отсюда возникает идея: если па вход динамической системы поступает неко- торая случайная функция общего вида, то можно ее представить — точно илн приближенно — в виде суммы элементарных случайных функций н только затем подвергать преобразованию. Такая идея разложения случайной функции на сумму элементарных случайных функций н лежит в основе метода канонических разложений. Пусть имеется случайная функция: X (0 = тх (V) 4- X (t). (16.1.5) Допустим, что нам удалось—точно или приближенно—предста- вить ее в виде суммы X (0 = тх (0 + S VlT, (0. (16.1.6) i=l где Vt — случайные величины с математическими ожиданиями, рав- ными нулю. <pf(0—неслучайные функции, тх (<) — математическое ожидание функции X (t). Условимся называть представление случайной функции в форме (16.1.6) разложением случайной функции. Случайные величины V,. У2, —, Vm будем называть коэффициентами разложения, а не- случайные функции <ft(f)» Фг(О..— координатными функ- циями. Определим реакцию линейной системы с оператором L на слу- чайную функцию X (0, заданную в виде разложения (16.1.6). Известно, что линейная система обладает так называемым свойством супер- позиции. состоящим в том, что реакция системы на сумму несколь- ких воздействий равна сумме реакций системы на каждое отдельное воздействие. Действительно, оператор системы L. будучи линейным, может, по определению,’ применяться к сумме почленно. Обозначая Y (0 реакцию системы на случайное воздействие X (t). имеем: т Ytt) = L [X (0) = L К(0) + 3 V,L (Т,(0]. (16.1.7)
410 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ (ГЛ. 16 Приладим выражению (16.1.7) несколько иную форму. Учитывая общее правило линейного преобразования математического ожидания, убеждаемся, что Д |т, (01 = ту (О- Обозначая £(М0)=<Д0. имеем: т Г(0 = т,(0+2^1(0- (16.1.8) 4 — 1 Выражение (16.1.8) представляет собой не что иное, как раз- ложение случайной функции ¥(t) по элементарным функциям. Коэф- фициентами этого разложения являются те же случайные величины Vp V2......Vm, а математическое ожидание и координатные функ- ции получены из математического ожидания и координатных функций исходной случайной функции тем же линейным преобразованием L. какому подвергается случайная функция X (t). Резюмируя, получаем следующее правило преобразования случай- ной функции, заданной разложением. Если случайная функция X (t), заданная разложением по элементарным функциям, подвергается линейному преобра- зованию L. то коэффициенты разложения остаются неизмен- ными, а математическое ожидание и координатные функции подвергаются точу же линейному преобразованию L. Таким образом, смысл представления случайной функции в виде разложения сводится к тому, чтобы свести линейное преобразование случайной функции к таким же линейным преобразованиям несколь- ких неслучайных функций — математического ожидания и коорди- натных функций. Это позволяет значительно упростить решение вадачи нахождения характеристик случайной функции ¥ (t) по срав- нению с общим решением, данным в п° 15.7. Действительно, каждая из неслучайных функций тх((), ft (О» ft (О. .... в данном случае преобразуется только один раз в отличие от корреляцион- ной функции Kx(t, t'). которая, согласно общим правилам, преоб- разуется дважды. 16.2. Каноническое разложение случайной функции Рассмо1рнм случайную функцию X (0, заданную разложением ^(/) = тл(0+2! (16.2.1) /-1 где коэффициенты V,. К2......Vm представляют собой систему случайных величин с мл тематическими ожиданиями, равными нулю и с корреляционной матрицей
16 2] КАНОНИЧЕСКОЕ РАЗЛОЖЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ 411 Найдем корреляционную функцию н дисперсию случайной функ- ции X(t). По определению А'ж(/. О = ЛЦА-(0Л-(Г)1, (16.2.2) где (О = 2^,(0. (16.2.3) Л'«') = 2^/?/(/'). (16.2.4) В формуле (16.2.4) индекс суммирования обозначен буквой чтобы подчеркнуть его независимость от индекса суммирования I в формуле (16.2.3). Перемножая выражения (16.2.3) и (16.2.4) и применяя к произ- ведению операцию математического ожидания, получим: КЛ‘- = = (16.2.5) где суммирование распространяется иа все пары значений I, J—как равные, так и неравные. В случае, когда I = /, Л! [7,^1 = Л1 [V?] = Ku = Di. где Dt—дисперсия случайной величины Vt. В случае, когдп МУу^К,,. где Ktj—корреляционный момент случайных величии Vt. Vf. Подставляя эти значения в формулу (16.2.5), получим выражение для корреляционной функции случайной функции X (t), заданной разложением (16.2.1): Kx(f. + (16.2.6) Полагая в выражении (16.2.6) t' — t, получим дисперсию случай- ной функции X (/): Ох (О = 2 [<р, (01г D, (/) Vj (0 Кц. (16.2.7)
412 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ (ГЛ. 18 Очевидно, выражения (16.2.6) и (16.2.7) приобретают особенно простои вил, когда все коэффициенты V{ разложения (16.2.1) некор- релированны, т. е. К^ = 0 при l В этом случае разложение случайной функции называется «каноническим». Таким образом, каноническим разложением случайной функ- ции АГ (/) называется ее представление в виде: = (16.2.8) i~l где (О — математическое ожидание случайной функции; <Pj(O. cf.2(H...тт(О—координатные функции, a VP И2.........— не- коррелированные случайные величины с математическими ожиданиями, равными нулю. Если задано каноническое разложение случайной функции, то ее корреляционная функция Kx (t. t') выражается весьма просто. Пола- гая в формуле (16.2.6) Л\у = 0 при 1ф], получим: K,(f, <')=2ф.(/)т1(ИО1- (16.2.9) /=-1 Выражение (16.2.9) называется каноническим разложением кор- реляционной функции. Полагая в формуле (16.2.9) t' = t, получим дисперсию случайной функции Dx(0—3lM0l’A- (16.2.10) 1=1 Таким образом, зная каноническое разложение случайной функ- ции X (/), можно сразу найти каноническое разложение ее корре- ляционной функции. Можно доказать, что обратное положение тоже справедливо, а именно: если задано каноническое разложение кор- реляционной функции (16.2.9), то для случайной функции АГ (О спра- ведливо каноническое разложение вида (16.2.8) с координатными функциями Ф/(О и коэффициентами Vt с дисперсиями Dt. Мы при- мем это положение без специального доказательства1). Число членов канонического разложения случайной функции может быть не только конечным, но и бесконечным. Примеры канонических разложения с бесконечным числом членов встретятся нам в главе 17. Кроме того, в ряде случаев применяются так называемые инте- гральные канонические представления случайных функций, в кото- рых сумма заменяется интегралом. ’) Доказательство см.: В. С. Пугачев, Теория случайных функций и ее применение в задачах автоматического управления, Физматгиз, 1962.
16.2] КАНОНИЧЕСКОЕ РАЗЛОЖЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ 413 Канонические разложения применяются не только для действи- тельных, но и для комплексных случайных функций. Рассмотрим обобщение понятия канонического разложения на случай комплексной случайной функции. Элементарной комплексной случайной функцией называется функ- ция вида: X(O = V<p(0. (16.2.11) где как случайная величина V, так и функция ср(/) комплексны. Определим корреляционную функцию элементарной случайной функции (1G.2.11). Пользуясь общим определением корреляционной функции комплексной случайной функции, имеем: Kx(t. r) = jM[V«p(0VV(?)]. (16.2.12) где чертой вверху, как н ранее, обозначена комплексная сопряжен- ная величина. Имея в виду, что и выиося неслучайные величины <р(0 и <р(£') за знак математиче- ского ожидания, получим: к At. П=<р(0?(Й>И(|к|21. Но, согласно п° 15.9, Л4 [|V|2] есть не что иное, как дисперсия комплексной случайной величины У: ЛН|И|21 = £), следовательно, Kx{t. О=<?(0ф(П£>. (16.2.13) Каноническим разложением комплексной случайной функции назы- вается ее представление в виде: = (16.2.14) где Ир Р2.....— некоррелированные комплексные случайные величины с математическими ожиданиями, равными нулю, a mx(t), ¥1 (0- (О.....f0 — комплексные неслучайные функции. Если комплексная случайная функция представлена каноническим разложением (16.2.14), то ее корреляционная функция выражается формулой t') = ijfi(9fi(OA. (16.2.15) где — дисперсия величины Vt: (16.2.16)
414 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ. 1Й Формула (16.2.15) непосредственно следует из выражения (16.2.13) для корреляционной функции элементарной комплексной случайной функции. Выражение (16.2.15) называется каноническим разложением кор- реляционной функции комплексной случайной функции. Полагая в (16.2.15) получим выражение для дисперсии комплексной случайной функции, заданной разложением (16.2.14): (16.2.17) »=1 16.3. Линейные преобразования случайных функций, заданных каноническими разложениями Пусть на вход некоторой линейной системы L поступает случай- ная функция X (Z) (рис. 16.3.1). Рис. 16.3.1. Система преобразует функцию А' (/) посредством линейного опе- ратора Z., и на выходе мы получаем случайную функцию Г(О = Д[Х(/)}. (16.3.1) Предположим, что случайная функция А' (/) задана ее канониче- ским разложением: й X (0 = тх (I) + У VlVl (/). (16.3.2) i=l Определим реакцию системы па это воздействие. Так как опера- тор системы является линейным, то п Y(t) = L {X (0} = i К (О) + 22^6 {<р, (0|. (16.3.3) Рассматривая выражение (16.3.3), легко убедиться, что оно пред- ставляет собой не что иное, как каноническое разложение слу- чайной функции Y (t) с математическим ожиданием УЯ, (7) = L [и, (7)) (16.3.4)
T6.3I ЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ 415 и координатными функциями Ф. (') = £[?<(')}• (16.3.5) Таким образом, при линейном преобразовании канонического разложения случайной функции X (t) получается каноническое разложение случайной функции Y (t), причем математическое ожидание и коо рдинатные функции подвергаются тому же линейному преобразованию. Если случайная функция Y (/) жа выходе линейной снстеиы полу* чена в виде канонического разложения F(0 = mJ(0+3Vrf-i(/). (16.3.6) то ее корреляционная функция и дисперсия находятся весьма просто! K,(t. 0=2?,(ОФ,(ОDt. (16.3.7) k £>,«)= 2 [ф, (OP D,. (16.3.8) i=l Это делает особенно удобными именно канонические разло- жения по сравнению с любыми другими разложениями по элементар- ным функциям. Рассмотрим несколько подробнее применение метода канонических разложений к определению реакции динамической системы на слу- чайное входное воздействие, когда работа системы описывается линей- ным дифференциальным уравнением, в общем случае — с перемен- ными коэффициентами. Запишем это уравнение в операторной форме: А(Р- t)Y(f) = Bm(p. (16.3.9) Согласно вышеизложенным правилам линейных преобразований случайных функций математические ожидания воздействия и реакции должны удовлетворять тому же уравнению: А,(р. от,(о=в,„(р. *)“л(<)- (16.3.Ю) Аналогично каждая из координатных функций должна удовлет- ворять тому же дифференциальному уравнению: Л(Р- t)^(t)^Biri(p. (16.3.11) (/==1. 2. .... k). Таким образом, задача определения реакции линейной динамиче- ской системы на случайное воздействие свелась к обычной математи- ческой задаче интегрирования обыкновенных дифференциальных
416 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ 16 уравнений, содержащих обычные, не случайные функции. Так как при решении основной задачи анализа динамической системы — опре- деления ее реакции на заданное воздействие—задача интегриро- вания дифференциального уравнения, описывающего работу системы, тем или другим способом решается, то при решении уравнений (16.3.10) и (16.3.11) новых математических трудностей не возникает. В част- ности, для решения этих уравнений могут быть с успехом применены те же интегрирующие системы или моделирующие устройства, которые применяются для анализа работы системы без случайных возмущений. Остается осветить вопрос о начальных условиях, при которых следует интегрировать уравнения (16.3.10) и (16.3.11). Сначала рассмотрим наиболее простой случай» когда начальные условия для данной динамической системы являются неслучайными. В этом случае при t = 0 должны выполняться условия: Г(0)=ус. Г'(0) = У,. И'’(0) = уг. (16.3-12) где у0, у»!...Ул—i— неслучайные числа. Условия (16.3.12) можно записать более компактно: ИГ)(О) = УГ (r = 0, 1.....« —I). (16.3.13) понимая при этом под «производной нулевого порядка» Ио)(/) саму функцию У (/). Выясним, при каких начальных условиях должны интегрироваться уравнения (16.3.10) и (16.3.11). Для этого найдем г-ю производную функции У (/) и положим в ней t — 0: (0)=(0)+2 М'! io). 1x1 Учитывая (16.3.12), имеем: * 4Г)<°)+ 2^Ф?’(0) = у,. (16.3.14) «— 1 Так как величина уг не случайна, то дисперсия левой части равенства (16.3.14) должна быть равна нулю: л £o/MrW=o. (16.3.15)
16.3] ЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ 417 Так как все дисперсии Dt величин положительны, то равен- ство (16.3.15) может осуществиться только, когда ф<'>(0) = 0 (16.3.16) для всех I. Подставляя (0) = 0 в формулу (16.3.И), получим: mW(0) = yr. (16.3.17) Из равенства (16.3.17) следует, что уравнение (16.3.10) для ма- тематического ожидания должно интегрироваться при заданных на- чальных условиях (16.3.12): '»,(<>) = уе. «^(0) = У1. т^(0) = уг. (16.3.18) т«)(0) = уя. Что касается уравнений (16.3.11), то они должны интегрироваться при нулевых начальных условиях: ^(0) = ф;(0)= ... =фИ(0)= ... =ф</")(0) = 0 («=1.2........А). (16.3.19) Рассмотрим более сложный случай, когда начальные условия случайны: Г(0) = Гс Г'(0) = Г1 У*'*(0) = Y,. (16.3.20) И"_”(0) где Ео, Ер .... /„.j — случайные величины. В этом случае реакция на выходе системы может быть найдена в виде суммы: F (0=^(0 + ^ (Я- (16.3.21) где Е((/) — решение дифференциального уравнения (16.3.9) при нуле- вых начальных условиях; /п (/) — решение того же дифференциаль- ного уравнения, но с нулевой правой частью при заданных начальных условиях (16.3.20). Как известно из теории дифференциальных М Теория верой гиостсй
418 КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ [ГЛ, 10 уравнений, это решение представляет собой линейную комбинацию начальных условий: ГцОТ = 2//Л</>’ (16.3.22) где /ДО — неслучайные функции. Решение К|(/) может быть получено изложенным выше методом в форме канонического разложения. Корреляционная функция случай- ной функции У(/)=г (0 может быть найдена обычными приемами сложения случайных функций (см. п°15.8). Следует заметить, что на практике весьма часто встречаются случаи, когда для моментов времени, достаточно удаленных от начала случайного процесса, начальные условия уже не оказывают влияния на его течение: вызванные ими переходные процесс^ успевают за- тухнуть. Системы, обладающие таким свойством, называются асимп- тотически устойчивыми. Если нас интересует реакция асимптотически устойчивой динамической системы на участках времени, достаточно удаленных от начала, то можно ограничиться исследованием реше- ния Г|(О, полученного прй нулевых начальных условиях. Для доста- точно удаленных от начального моментов времени это решение будет справедливым и при любых начальных условиях.
ГЛАВА 17 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ 17.1. Понятие о стационарном случайном процессе На практике очень часто встречаются случайные процессы, про- текающие во времени приблизительно однородно и имеющие вид непрерывных случайных колебаний вокруг некоторого среднего зна- чения. причем ни средняя амплитуда, ни характер этих колебаний не обнаруживают существенных изменений с течением времени. Такие случайные процессы называются стационарными. В качестве примеров стационарных случайных процессов можно привести: 1) колебания самолета на установившемся режиме горизон- тального полета; 2) колебания напряжения в электрической освети- тельной сети; 3) случайные шумы в радиоприемнике; 4) процесс качки корабля и т. п. Каждый стационарный процесс можно рассматривать как продол- жающийся во времени неопределенно долго; при исследовании стацио- нарного процесса б качестве начала отсчета можно зыбрать любой мо- мент времени. Исследуя стационарный процесс на любом участке вре- мени. мы должны получить одни и те же его характеристики. Образно выражаясь, стационарный процесс «не имеет ни начала, ни конца». WJ Рис. 17.1 1 Примером стационарного случайного процесса может служить из- менение высоты центра тяжести самолета на установившемся режиме горизонтального полета (рис. 17.1.1). В противоположность стационарным случайным процессам можно указать другие, ввно нестационарные, случайные процессы, например:
420 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ 17 17.1] ПОНЯТИЕ О СТАЦИОНАРНОМ СЛУЧАЙНОМ ПРОЦЕССЕ 421 колебания самолета в режиме пикирования; процесс затухающих колебаний в электрической цепи; процесс горения порохового заряда в реактивной камере и т. д. Нестационарный процесс характерен тем, что он имеет определенную тенденцию развития во времени; характеристики такого процесса зависят от начала от- счета, зависят от времени. На рис. 17.1.2 изображено семейство реализаций явно нестацио- нарного случайного процесса — процесса изменения тяги двигателя реактивного снаряда во времени. Заметим, что далеко не все нестационарные случайные процессы являются существенно нестационарными на всем протяжении своего развития. Существуют неста- f?(t) ционарные процессы, которые (на известных отрезках вре- Jу мени и с известным приближе- fjj/ ' нием) могут быть приняты за Ги7 стационарные. 1/гр 'Х Например, процесс наводки 1/ перекрестия авиационного при- 0~—— --------- * цела на цель есть явно неста- Рис. 17.1.2. ционарный процесс, если цель за короткое время с большой и резко меняющейся угловой скоростью проходит поле зрения прицела. В этом случае колебания оси прицела относительно цели не успевают установиться в некотором стабильном режиме; про- цесс начинается и заканчивается, не успев приобрести стационар- ный характер. Напротив, процесс наводки перекрестия прицела на неподвижную или движущуюся с постоянной угловой скоростью цель через некоторое время после начала слежения приобретает стационарный характер. Вообще, как правило, случайный процесс в любой динамической системе начинается с нестационарной стадии — с так называемого «переходного процесса». После затухания переходного процесса система обычно переходит на установившийся режим, и тогда слу- чайные процессы, протекающие в ней, могут считаться стационарными. Стационарные случайные процессы очень часто встречаются в фи- зических н технических задачах. По своей природе эти процессы проще, чем нестационарные, и описываются более простыми характе- ристиками. Линейные преобразования стационарных случайных про- цессов также обычно осуществляются проще, чем нестационарных. В связи с этим на практике получила широкое применение специаль- ная теория стационарных случайных процессов, или, точнее, теория стационарных случайных функций (так как аргументом стационарной случайной функции в общем случае может быть и не время). Элементы этой теории и будут изложены в данной главе. Случайная функция X (t) называется стационарной, если все ее вероятностные характеристики не зависят от t (точнее, не меняются при любом сдвиге аргументов, от которых онн зависят, по оси /). В данном элементарном изложении теории случайных функций мы совсем не пользуемся такими вероятностными характеристиками, как законы распределения: единственными характеристиками, кото- рыми мы пользуемся, являются математическое ожидание, дисперсия и корреляционная функция. Сформулируем определение стационарной случайной функции в терминах этих характеристик. Так как изменение стационарной случайной функции должно протекать однородно по времени, то естественно потребовать, чтобы для стационарной случайной функции математическое ожидание было .постоянным: (/) = тх = const. (17.1.1) Заметим, однако, что это требование не является существенным: мы знаем, что от случайной функции X(t) всегда можно перейти к цен- трированной случайной функции X (/), для которой математическое ожидание тождественно равно нулю и, следовательно, удовлетворяет условию (17.1.1). Таким образом, если случайный процесс нестацио- нарен только за счет переменного математического ожидания, это не помешает нам изучать его как стационарный процесс. Второе условие, которому, очевидно, должна удовлетворять ста- ционарная случайная функция,—это условие постоянства дисперсии: Dx (/) = Dx — const. (17.1.2) Установим, какому условию должна удовлетворять корреляцион- ная функция стационарной случайной функции. Рассмотрим случай- ную функцию X(/) (рис. 17.1.3). Положим в выражении Kx(t. t'y t'~ /-f-т и рассмотрим Кя (t, t + т) — корреляцион- ный момент двух сеченнй слу- чайной функции, разделен- ных интервалом времени т. Очевидно, если случайный процесс X (t) действительно Рис. 17.1.3. стационарен, то этот корре- ляционный момент не должен зависеть оттого, где именно на оси Ot мы взяли участок т, а должен зависеть только от длины этого участка. Например, для участков / и П на рнс. 17.1.3, имею- щих одну и ту же длину т, значения корреляционной функции ^(/. *4-т) и Kx{tv /,-Н) должны быть одинаковыми. Вообще, корреляционная функция стационарного случайного процесса должна зависеть не от положения t первого аргумента на оси абсцисс, а только от промежутка х между первым и вторым аргументами: K,(t. /4-т) = Ал(т). (17.1.3)
422 стационарные случайные функции [гл it Следовательно, корреляционная функция стационарного случайного процесса есть функция не двух, а всего одного аргумента. Это обстоятельство в ряде случаев сильно упрощает операции над ста- ционарными случайными функциями. Заметим, что условие (17.1.2). требующее от стационарной слу- чайной функции постоянства дисперсии, является частным случаем условия (17.1.3). Действительно, полагая в формуле (17.1.3) /4--с = / (т = 0). имеем £)х(Г) = Кх (t, f) = kr (0) = const. (17.1.4) Таким образом, условие (17.1.3) есть единственное существенное усло- вие. которому должна удовлетворять стационарная случайная функция. Поэтому в дальнейшем мы под стационарной случайной функцией будем понимать такую случайную функцию, корреляционная функция которой зависит не от обоих своих аргументов t и t*, а только от разности х между ними. Чтобы ие накладывать специальных условий на математическое ожидание, мы будем рассматривать только центрированные слу- \ чайные функции. \ Мы знаем, что корреля- те \ ционная функция любой слу- \ —чайной функции обладает \ свойством симметрии: ° \ Z t') = Kx(t'. Г). \ / Отсюда для стационарного \ / процесса, полагая /' — t = т. имеем: . Рис. 17.1.4. *ж(т) = *х(—Ч, (17.1.5) т. е. корреляционная функция kx(x) есть четная функция своего аргумента. Поэтому обычно корреляционную функцию определяют только для положительных значений аргумента (рис. 17.1.4). На практике, вместо корреляционной функции kx (х), часто поль- зуются нормированной корреляционной функцией где Dx = kx(0)— постоянная дисперсия стационарного процесса. Функция рх(т) есть не что иное, как коэффициент корреляции между сечениями случайной функции, разделенными интервалом т по времени. Очевидно, что рх (0) = 1. В качестве примеров рассмотрим два образца приблизительно стационарных случайных процессов и построим их характеристики. Пример 1. Случайная функция X (/) задана совокупностью 12 реали- заций (рис. 17.1.5). а) Найти ее характеристики Kx{t, i'), Dx{t} и
17 1] ПОНЯТИЕ О СТАЦИОНАРНОМ СЛУЧАЙНОМ ПРОЦЕССЕ 423 нормированную корреляционную функцию rK(t, t'). 6) Приближенно рассмат- ривая случайную функцию X (/) как стационарную, найти ее характеристики. Решение. Так как случайная функция X (/) меняется сравнительно плавно, можно брать сечения не очень часто, например через 0,4 сек. Тогда случайная функция будет сведена к системе семи случайных величин, отвечающих сечениям /==>0; 0,4; 0,8; 1.2; 1,6; 2,0; 2,4. Намечая вти сечения на графике и снимая с графика значения случайной функции в этих сече- ниях, получим таблицу (табл. 17,1.1). Таблица 17,1,1 зацим ... 0 о.ч 0.8 1.Я 1.6 2,0 2,4 1 0,64 0,74 0,62 0,59 0,35 —0.09 —0,39 2 0,54 0,37 0,06 —0,32 —0,60 —0.69 —0,67 3 0,34 0.50 0,37 0,26 —0,52 —0,72 0,42 4 0,23 0.26 0,35 0,55 0,69 0,75 0,80 5 0,12 0,20 0.24 0,18 —0,20 —0,42 —0,46 6 —0,16 —0,12 —0,15 0,05 0,29 0.43 0,63 7 —0,22 —0,29 —0,38 —0 24 —0,06 007 —0,16 8 -0.26 —0,69 -0,70 —0,61 -0,43 —0,22 0,29 9 —0,50 -4).60 —0.68 —0,62 —0,68 —0,56 —0,54 10 -0,30 0,13 0,75 0,84 0,78 0,73 0,71 И —0,69 —0,40 0,08 0,16 0,12 0,18 0,33 12 0,18 —0,79 —0,56 —0,39 —0,42 —0,56 —0,53 Таблицу рекомендуется заполнять по строчкам, передвигаясь все время вдоль одной реализации. Далее [находим оценки для характеристик случайных величин X (0), X(0,4), .... X (2,4). Суммируя значения по столбцам и деля сумму ла число
424 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ 17 реализаций п = 12> найдем приближенно зависимость математического ожи- дания от времени: t 0 0,4 0,8 1.2 1.6 2,0 2,4 —0,007 —0,057 0,000 0,037 —0,057 —0,093 0,036 На графике рис. 17.1.5 математическое ожидание показано жирной линией. Далее находим оценки для элементов корреляционной матрицы: диспер- сий и корреляционных моментов. Вычисления удобнее всего производить по следующей схеме. Для вычисления статистической дисперсии суммируются квадраты чисел, стоящих в соответствующем столбце; сумма делится иа п = 12; из результата вычитается квадрат соответствующего математического ожи- дания. Для получения несмещенной оценки результат множится на поправку ——у = -у. Аналогично оцениваются корреляционные моменты. Для вы- числения статистического момента, отвечающего двум заданным сечениям, перемножаются числа, стоящие в соответствующих столбцах; произведения складываются алгебраически; полученная сумма делится на п — 12; из резуль- тата вычитается произведение соответствующих математических ожиданий; для получения несмещенной оценки корреляционного момента результат мно- жится на у—уПри выполнении расчетов на счетной машине или ариф- мометра промежуточные результаты умножений ие записываются, а непо- средственно суммируются'). Полученная таким способом корреляционная матрица системы случайных величии X (0), ЛГ(0,4), .... X (2,4) — она же таблица значений корреляционной функции Kx(t, t') — приведена в таблице 17.1.2. Таблица 17.1-2 X • 0,4 0.8 1.2 1.6 2.0 2,4 0 0,4 0,8 1.2 1.6 2,0 2,4 0.1632 0,1379 0,2385 0,0795 0.2029 0,2356 0,0457 0.1621 0,2152 0.2207 —0,0106 0,0827 0,1527 0,1910 0,2407 —0.0642 0,0229 0,0982 0,1491 0,2348 0,2691 —0,0648 0,0251 0,0896 0,1322 0,1711 0,2114 0.2878 По главке t й диагонали таблицы стоят 0 | 0.4 | 0,8 оценки дисперсий; | 1.2 | 1.6 2,0 1 w 0,1632 0,2385 | 0,2356 | 0,2207 | 0,2407 0,2691 | 0,2878 *) В данном случае оказалось возможным непосредственно вести обработку через начальные моменты, так как математическое ожидание функции X(t) близко к нулю. Если это не так» то перед обработкой необходимо перенести начало отсчета поближе к математическому ожиданию.
17 1] ПОНЯТИЕ О СТАЦИОНАРНОМ СЛУЧАЙНОМ ПРОЦЕССЕ 425 Извлекая из этих величии квадратные корни, найдем зависимость сред- него квадратического отклонения от времени: t 0 0,4 0,8 1.2 1.6 2,0 2,4 МО 0,404 0,488 0,485 0,470 0,491 0,519 0.536 Деля значения, стоящие в табл. 17.1.2, на произведения соответствующих средних квадратических отклонений, получим таблицу значений нормирован- ной корреляционной функции гх(Д /') (табл. 17.1.3). I аб л ица 17.1.3 0 0,4 0,8 1.2 1.6 2,0 2.4 0 0.4 о;в 1.2 1.6 2.0 2,4 1 0.700 1 0,405 0,856 1 0,241 0,707 0,943 1 —0,053 0,345 0,643 0,829 1 -4),306 0,090 0,390 0,612 0,923 1 —0.299 0,095 0,344 0,524 0,650 0,760 1 Проанализируем полученные данные под углом зреиия предполагаемой стационарности случайной функции X(f). Если судить непосредственно по данным, полученным в результате обработки, то можно прийти к выводу, что случайная функция X (/) стационарной не является: ее математическое ожи- дание не вполне постоянно; дисперсия также несколько меняется со време- нем; значения нормированной корреляционной функции вдоль параллелей главной диагонали также ие вполне постоянны. Однако, принимая во внима- ние весьма ограниченное число обработанных реализаций (л —12) и в связи с этим наличие большого элемента случайности в полученных оценках, эти видимые отступления от стационарности вряд ли можно считать значимыми, тем более, что они не носят сколько-нибудь закономерного характера. По- этому вполне целесообразной будет приближенная замена функции X (/) стационарной. Для приведения функции к стационарной прежде всего осред- пим по времени оценки для математического ожидания: = т,(0) + т,(0;4) + - + М2.4) _002 Аналогичным образом осредннм оценки для дисперсии: О, = Д,(Р) + Дг(0.4).+ - +^(2.4) я 0 235 Извлекая корень, найдем осредненную оценку с. к. о.: ах ss 0,486. Перейдем к построению нормированной корреляционной функции того стационарного процесса, которым можно заменить случайную функцию X (/). Для стационарного процесса корреляционная функция (а значит, и нормиро- ванная корреляционная функция) зависит только от т =/' —следовательно.
426 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 при постоянном ч корреляционная функция должна быть постоянной. В таб- лице 17.1.3 постоянному т соответствуют: главная диагональ (х = 0) и парал- лели втой диагонали (т = 0,4; 1 = 0,8; г =1,2 и т. д.)_ Осредняя оценки нор- мированной корреляционной функции вдоль этих параллелей главной диагонали, получим значения функции рх (т); 1 0 0,4 0,8 1.2 1.6 2,0 2,4 М’) 1,00 0,84 0,60 0,38 0,13 -0.10 -0.30 График функции рх (т) представлен на рис. 17.1.6. При рассмотрении рис. 17.1.6 обращает на себя внимание наличие для некоторых т отрицательных значений корреляционной функции. Это указывает иа то, что б структуре случайной функции имеется некоторый элемент пе- риодичности, б связи с чем на расстоянии по времени, равном примерно половине периода основных коле- баний, наблюдается отрицательная корреляция между значениями слу- чайной функции: положительным отклонениям от среднего в одном сечении соответствуют отрица- тельные отклонения через опре- деленный промежуток времени, и наоборот. .Такой характер корреляцион- ной функции, с переходом на отри- цательные значения, очень часто встречается на практике. Обычно в таких случаях по мере увеличе- ния т амплитуда колебаний корре- ляционной функции уменьшается и при дальнейшем увеличении т корреляционная функция стре- мится к нулю. Пример 2. Случайная функция X (/) задана совокупностью 12 своих реализаций (рис. 17.1.7). Приближенно заменив функцию X(t) стационарной, сравнить се нормированную корреляционную функцию с функцией fx (t) пре- дыдущего примера. Решение. Так как случайная функция X (/) отличается значительно менее плавным ходом по сравнению с функцией X (t) предыдущего примера, промежуток между сечениями уже нельзя брать ранным 0,4 сек, как в пре- дыдущем примере, а следует взять по крайней мерс вдвое меньше.(напри- мер, 0,2 сек. как на рис. 17.1.7). В результате обработки получаем оценку для нормированной корреляционной функции (t): т 0 0.2 0,4 0,6 0,8 1.0 1.2 1.4 1.6 1.8 2.0 2.2 2,4 М’) 1 00 0,73 0,41 0,22 —0,01 —0 20 -0,19 —0,10 -4), 06 —0,15 0,08 0,18 0,05 График функции рх (/) представлен на рис. 17.1.8. Из сравнения графиков рис. 17.1.8 и 17.1.6 видно, что корреляционная функция, изображенная
17.2J СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА КОНЕЧНОМ УЧАСТКЕ 427 на рил 17.1.8, убывает значительно быстрее. Это и естественно, так как характер изменения функции X (/) в примере 1 гораздо более Рис. 17.1.7. плавный и постепенный, чем в примере 2; в связи с этим корреляции между значениями случайной функции в примере 1 убывает медленнее. При рассмотрении рис. 17.1.8 бросаются в глаза незакономерные колебания функции р> (т) для боль- ших значений т. Так как при боль- ших значениях х точки графика получены осреднением сравни- тельно очень небольшого числа данных, их нельзя считать надеж- ными. В подобных случаях имеет смысл сгладить корреляционную функцию, как, например, показано пунктиром на рис. 17.1.8. 17,2. Спектральное разложе- ние стационарной случайной функции на конечном участке времени. Спектр дисперсий На двух примерах, приве- денных в предыдущем п’, мы наглядно убедились в том, что существует связь между характером кор- реляционной функции и внутренней структурой соответствующего ей случайного процесса. В зависимости от того, какие частоты и
423 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [гл. 17 в каких соотношениях преобладают в составе случайной функции, ее корреляционная функция имеет тот или другой вид. Из таких сооб- ражений мы непосредственно приходим к понятию о спектральном составе случайной функции. Понятие «спектра» встречается не только в теории случайных функций; оно широко применяется в математике, физике и технике. XCt) Рис. 17.2.1. Если какой-либо колебательный процесс представляется в виде суммы гармонических колебаний различных частот (так называемых «гармоник»), то спектром колебательного процесса называется функ- ция, описывающая распределение амплитуд по различным частотам. Спектр показывает, какого рода колебания преобладают в данном процессе, какова его внутренняя структура. Совершенно аналогичное спектральное описание можно дать и стационарному случайному процессу; вся разница в том, что для слу- чайного процесса ампли- туды колебаний будут случайными величинами. Спектр стационарной слу- чайной функции будет описывать распределе- ние дисперсий по раз- Т личным частотам. Подойдем к понятию о спектре стационарной случайной функции из следующих соображений. Рассмотрим стационарную случайную функцию X (t), которую мы наблюдаем на интервале (0. 7) (рис. 17.2.1). Задана корреляционная функция случайной функции X (t) Kx(t. t + T) = kx[t). Функция Ал(т) есть четная функция: *х(т) = М— т) и, следовательно, на графике изобразится симметричной кривой (рис. 17.2.2).
17.2] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА КОНЕЧНОМ участке 429 Прн изменении t и t' от 0 до Т аргумент т==/'—I изменяется от —Т до -t-Г. Мы знаем, что четную функцию на интервале (—Г. Г) можно разложить в ряд Фурье, пользуясь только четными (косинусными) гармониками: (t) — 2 cos (17.2.1) л=о где »,=*«>.; (17.2.2) а коэффициенты Db определяются формулами: Dk — у I kx (т) cos <oftT (1т при k 0. Имея в виду, что функции Лх(т) и образовать формулы (17.2.3) к виду: cos wftT четные, можно пре- D0 = ^.f б Dk = у У*kx(т) cos (1т при k =£ 0. б (17.2.3) (17.2.4) Перейдем в выражении (17.2.1) корреляционной функции kx(r) От аргумента т снова к двум аргументам t и t'. Для этого положим cos шьт = cos <da (/' — t) = cos ukt' cos <оА/ Д- sin wfc/' sin wA/ (17.2.5) и подставим выражение (17.2.5) в формулу (17.2.1): KAt, /')== 2 (^л cos шл^СО5шй^4“£,л5*пш**,8,Пшл*)* (17.2.6) fc=0 Мы видим, что выражение (17.2,6) есть не что иное, как кано- ническое разложение корреляционной функции Кхt'). Координатными функциями этого канонического разложения являются попеременно косинусы и синусы частот, кратных Шр cos 4ikt, slnwAf (6 = 0, 1, ...).
430 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ Ггл. 17 Мы знаем, что по каноническому разложению корреляционной функции можно построить каноническое разложение самой случайной функции с теми же координатными функциями и с дисперсиями, равными коэффициентам £)й в каноническом разложении корреля- ционной функции ’). Следовательно, случайная функция X (/) может быть представлена в виде канонического разложения: X (t) = s (t/j cos + V„ sin ше7). (17.2.7) n-u где Uk, Vk — некоррелированные случайные величины с математи- ческими ожиданиями, равными нулю, и дисперсиями, одинаковыми для каждой пары случайных величин с одним н тем же индексом А: = = (17.2.8) Дисперсии Ок при различных А определяются формулами (17.2.4). Таким образом, мы получили на интервале (0, Т) каноническое разложение случайной функции X (/). координатными функциями которого являются функции coswft/, sill ыл/ прн различных <оА. Раз- ложение такого рода называется спектральным разложением ста- ционарной случайной функции. На представлении случайных функций в виде спектральных разложений основана так называемая спект- ральная теория стационарных случайных процессов. Спектральное разложение изображает стационарную случайную функцию разложенной на гармонические колебания различных частот: <1)р ш2....» причем амплитуды этих колебаний являются случайными величинами. Определим дисперсию случайной функции X (/). заданной спек- тральным разложением (17.2.7). По теореме о дисперсии линейной функции некоррелированных случайных величин D, = D[X (7)] = 5 (cos2u>tf + sin2u>»7) D, = £ Ds. (17 2 9) A=0 Ы) Таиим образом, дисперсия стационарной случайной функции равна сумме дисперсий всех гармоник ее спектрального разло- жения. Формула (17.2.9) показывает, что дисперсия функции X (/) ’) Можно доказать, что для любой корреляционной функции kx (т) коэф- фициенты выражаемые формулами (17.2.4), неотрицательны.
п-э] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА БЕСКОНЕЧНОМ УЧАСТКЕ 431 известным образом распределена по различным частотам: одним часто- там соответствуют большие дисперсии, другим — меньшие. Распреде- ление дисперсий по частотам можно проиллюстрировать графически в виде так назы- ваемого спектра стационар- ной случайной функции (точ- нее— спектра дисперсий). Для этого по оси абсцисс от- кладываются частоты — О, Wp и>2.... ........ а по оси ординат—соответствую- щие дисперсии (рис. 17.2.3), Очевидно, сумма всех ординат построенного таким образом спектра равна дисперсии случайной функции. 17.3. Спектральное разложение стационарной случайной функции иа бескоиечиом участке времени. Спектральная плотность стационарной случайной функции Строя спектральное разложение стационарной случайной функ- ции X (?) на конечном участке времени (О, Т), мы получили спектр дисперсий случайной функции в виде ряда отдельных дискретных линий, разделенных равными промежутками (так называемый «пре- рывистый» или «линейчатый» спектр). Очевидно, чем больший участок времени мы будем рассматривать, тем полнее будут наши сведения о случайной функции. Естественно поэтому в спектральном разложении попытаться перейти к пределу при Г—>00 и посмотреть, во что при этом обратится спектр случай- ной функции. При Т —>сс = поэтому расстояния между частотами о>А, на которых строится спектр, будут при Т —>оо не- ограниченно уменьшаться. При этом дискретный спектр будет при- ближаться к непрерывному, в котором каждому сколь угодно малому интервалу частот- Дш будет соответствовать элементарная диспер- сия Д£)(ш). Попробуем изобразить непрерывный спектр графически. Для этого мы должны несколько перестроить график дискретного спектра при конечном Т. А именно, будем Откладывать по оси ординат уже не самую дисперсию Dk (которая безгранично уменьшается при Г->оо), а среднею плотность дисперсии, т. е. дисперсию, при- ходящуюся на единицу длины данного интервала частот. Обозначим расстояние между соседними частотами Дю; «?я “1 = 2^- = Дц)
432 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 и на каждом отрезке Дю, как на основании, построим прямоугольник с площадью Dp (рис. 17.3.1). Получим ступенчатую диаграмму, напоминающую по принципу построения гистограмму статистического распределения. Высота диаграммы па участке Деи. прилежащем к точке <ол, равна S, (“*) = -£- (17-3.1) и представляет собой среднюю плотность дисперсии на этом участке. Суммарная плошадь всей диаграммы, очевидно, рав- на дисперсии случайной функции. Будем неограниченно увеличивать интервал Т. При этом Дю—>0, и сту- пенчатая кривая будет не- ограниченно приближать- ся к плавной кривой Sx (ш) (рис. 17.3.2). Эта кривая __ изображает плотность Щг распределения дисперсий рис |73| по частотам непрерывного спектра, а сама функция Sx (ш) называется спектральной плотностью дисперсии, или, короче, спектральной плотностью стационарной случайной функции X (/). Очевидно, площадь, огра- ниченная кривой 5х(ю). по- прежнему должна равняться дисперсии Dx случайной функции X (t)'. Ол = J (17 3.2) о Формула (17,3.2) есть не что иное, как разложение дисперсии Dx на сумму элементарных слагаемых 0 Sx(<D)du). каждое из кото- рис ^^2 рых представляет собой дисперсию, приходящуюся на элементарный участок частот dm, прилежащий к точке ш (рис. 17.3.2). Таким образом, мы ввели в рассмотрение новую дополнительную характеристику стационарного случайного процесса — спектральную
17Л] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА БЕСКОНЕЧНОМ УЧАСТКЕ 433 плотность, описывающую частотный состав стационарного процесса. Однако эта характеристика не является самостоятельной; она пол- ностью определяется корреляционной функцией данного процесса. Подобно тому, как ординаты дискретного спектра Dk выражаются формулами (17.2.4) через корреляционную функцию Лх(т). спектраль- ная плотность 5х(ш) также может быть выражена через корреляцион- ную функцию. Выведем это выражение. Для этого перейдем в каноническом разложении корреляционной функции к пределу при Г-*со и посмот- рим, во что оно обратится. Будем исходить из разложения (17.2.1) корреляционной функции в ряд Фурье на конечном интервале (—Т, Г): k (т) = 2 О. cos (17.3.3) Л-0 где дисперсия, соответствующая частоте и>й, выражается формулой т Dk = уг у* kx (т) cos шл*с dx. (17.3.4) о Перед тем как переходить к пределу при 7'->со, перейдем в формуле (17.3.3) от дисперсии Dk к средней плотности дисперсии — . Так как эта плотность вычисляется еще при конечном значе- нии Т и зависит от Т. обозначим ее: S?’(<>») = -?А. (17.3.5) Разделим выражение (17.3.4) на Ды=у ; получим: т $JP(Ms)=-| I *х(т)совш4тЛ. (17.3.6) О Из (17.3.5) следует, что D» = Sir,(«>»)^ui. (17.3.7) Подставим выражение (17.3.7) в формулу (17.3.3); получим: ГО = S S!P(“*) cos “»' йш- (17.3.8) Л = 0 Посмотрим, во что превратится выражение (17.3.8) при Т—>оо. Очевидно, при этом дискретный аргумент переходит в непрерывно меняющийся аргумент <о; сумма переходит в интеграл по переменной <о; средняя плотность дисперсии sS'fat) стремится
434 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИЙ [ГЛ. 17 к плотности дисперсии Sx(«)» и выражение (17.3.8) в пределе при- нимает вид: kx (т) = j* (<в) cos on rfw, (17.3.9) о где£х(ш) — спектральная плотность стационарной случайной функции. Переходя к пределу при Т —>оо в формуле (17.3.6). получим выражение спектральной плотности через корреляционную функцию: OQ 5^(ш) = -| У t,(,)cosmft. (17.3.10) О Выражение типа (17.3.9) известно в математике под названием интеграла Фурье. Интеграл Фурье есть обобщение разложения в ряд Фурье для случая непериодической функции, рассматриваемой на бесконечном интервале, и представляет собой разложение функции на сумму элементарных гармонических колебаний с непрерывным спектром ’). Подобие тому кан ряд Фурье выражает разлагаемую функцию через коэффициенты ряда, которые в свою очередь выражаются через разлагаемую функцию, формулы (17.3.9) и (17.3.10) выражают функ- ции Аж(т) и 5ж(ш) взаимно: одна через другую. Формула (17.3.9) выражает корреляционную функцию через спектральную плотность; формула (17.3.10), наоборот, выражает спектральную плотность через корреляционную функцию. Формулы типа (17.3.9) и (17.3.10). связывающие взаимно две функции, называются преобразоеанияма Фу ръе 2). Таким образом, корреляционная функция и спектральная плот- ность выражаются одна через другую с помощью преобразований Фурье. Заметим, что нз общей формулы (17.3.9) при т = 0 получается ранее получеиное разложение дисперсии по частотам (17.3.2). На практике вместо спектральной плотности 5ж(ш) часто поль- зуются нормированной спектральной плотностью: »,(«) = £44, (17,3.1 Г) где DT — дисперсия случайной функции. ') Формула (17.3.9) является частным видом интеграла Фурье, обобщаю- щим разложение в ряд Фурье четной функции по косинусным гармоникам. Аналогичное выражение может быть написано и для более общего случая. ) В данном случае мы имеем дело с частным случаем преобразований Фурье — с так называемыми «косннус-преобразованиямн Фурье».
17-SJ СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА БЕСКОНЕЧНОМ УЧАСТКЕ 435 Нетрудно убедиться, что нормированная корреляционная функция рл(х) и нормированная спектральная плотность 5л(ю) связаны теми же преобразованиями Фурье: = J sx (<d) cos шт du>, о s* (ш) = l’ рх (т) COS шт dx. о (17.3.12) Полагая в первом из равенств (17.3.12) т = 0 н учитывая, что рл(0)= 1. имеем: оа J sx(m)d<D= 1, (17.3.13) е т. е. полная площадь, ограниченная графиком нормированной спект- ральной плотности, равна единице. Пример 1. Нормированная корреляционная функция рх (?) случайной функции X (/) убывает по линейному закону от единицы до нуля при О < т < т0; при т > т0 рх (?) = 0 (рис. 17.3.3). Определить нормированную спектральную плотность случайной функции X (/). Решение. Нормированная корреляционная функция выражается фор- мулами: , I = 1----J- при О < т < т0, Рх С1) 1 ч ( = О прн х > т0. Из формул (17.3.12) имеем: SX (“) = “ fx (Т) COS ЫТ dx г= В . 2 .. cos wt ах = (1 — cos от0).
436 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 Рнс. 17.3.5. График нормированной спектральной плотности представлен иа рис. 17.3.4. Первый — абсолютный — максимум спектральной плотности достигается при со О; раскрытием неопределенности в этой точке убеждаемся, что ои равен . Далее при возрастании ы спектральная плотность достигает ряда относительных максимумов, высота которых убывает с возрастанием ш; при со -> СО (со) -> О, Характер изменения спектральной плотности sx(w) (быстрое или медлен- ное убывание) зависит от параметра т0. Полная площадь, ограниченная кри- вой sx(co), постоянна и равна единице. Изме- нение т0 равносильно изменению масштаба кри- вой (<>) по обеим, осям при сохранении ее площади. При увеличении т0 масштаб по оси ординат увеличивается, по оси абсцисс — уменьшается; преобладание в спектре случай- ной функции нулевой частоты становится бо- лее ярко выраженным. В пределе при т0->со случайная функция вырождается в обычную случайную величину; при этом рж(‘с)гз1, а спектр становится дискретным с одной-един- стве иной частотой w0 — 0. Пример 2. Нормированная спектральная плотность sx (w) случайной функции А (0 по- стоянна на некотором интервале частот <о(, ш2 и равна нулю вне этого интервала (рис. 17.3.5). Определить нормированную корреляционную функцию случайной функ- ции X(f). Решение. Значение sx (а) при wl < <о < ю2 определяем из условия, что площадь, ограниченная кривой sx(<u), равна единице: 5Д (' ) ('”2-----ш1) 1» Из (17.3.12) пмееи: s (ы) =------------1-----, О!2 --- (!)£ у* $х (ы) COS СОТ rfco = Сж (’) = <“>S ------------- / cos cor da = tllj----- CD j ,1 •«I = —1--------r- (sin <e3r — sin wit) = —-— ----- cos f — + ‘J-1- -Л sin (— Q №|- rl, r(co2 —*»l) T(wa —co,) \ 2 ) \ 2 ) Общий вид функции рх(т) изображен иа рис. 17.3.6. Она носит характер убывающих по амплитуде колебании с рядом узлов, в которых функция обра- щается в нуль. Конкретный вид графика, очевидно, зависит от значений <оа, cus. Представляет интерес предельный вид функции рж(т) при <ot-><i>2. Оче- видно, при wa = <0[ = со спектр случайной функции обращается в дискретный с одной-единственной линией, соответствующей частоте <и; при этом корре- ляционная функция обращается в простую косинусоиду: Рх СО = cos <1»г. Посмотрим, какой вид в этом случае имеет сама случайная функция X (/). При дискретном спектре с одной-единственной линией спектральное разложе- ние стационарной случайной функции X (/) имеет вид: X (() — U COS at + V Sin at. (17.3.14)
17.3] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ НА БЕСКОНЕЧНОМ УЧАСТКЕ 437 где U и V —некоррелированные случайные величины с математическими ожиданиями, равными нулю, и равными дисперсиями: D[£/] = £>[V] = £>. Покажем, что случайная функция типа (17.3.14) может быть предста- влена как одно гармоническое колебание частоты со со случайной ампли- тудой и случайной фазой. Обозначая . и v cos Ф — —, SIH Ф = - —, приводим выражение (17.3.14) к виду: X (О — Y Us + Vя (cos Ф cos со/ 4- sin Ф sin ш/) = p^t/2 4“ У5 cos (<»i — Ф). В этом выражении YU3-}-Vя— случайная амплитуда; Ф — случайная фаза гармонического колебания. До сих пор мы рассматривали только тот случай, когда распре- деление дисперсий по частотам является непрерывным, т. е. кода на бесконечно малый участок частот приходится бесконечно малая дисперсия. На практике иногда встречаются случаи, когда случайная функция имеет в своем составе чисто периодическую составляющую частоты ujfc со случайной амплитудой. Тогда в спектральном разло- жении случайной функции, помимо непрерывного спектра частот, будет фигурировать еще отдельная частота шА с конечной диспер- сией Db. В общем случае таких периодических составляющих может быть несколько. Тогда спектральное разложение корреляционной функции будет состоять из двух частей: дискретного и непрерывного спектра:
438 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ IT Случаи стационарных случайных функций с таким «смешанным» спектром на практике встречаются довольно редко- В этих случаях всегда имеет смысл разделить случайную функцию на два слагае- мых—с непрерывным и дискретным спектром — и исследовать эти слагаемые в отдельности. Относительно часто приходится иметь дело с частным случаем, когда конечная дисперсия в спектральном разложеини случайной функции приходится на нулевую частоту (ш = 0). Это значит, что в состав случайной функции в качестве слагаемого входит обычная случайная величина с дисперсией £)0. В подобных случаях также имеет смысл выделить это случайное слагаемое и оперировать с ним отдельно. 17.4. Спектральное разложение случайной функции в комплексной форме В ряде случаев с точки зрения простоты математических пре- образований оказывается удобным пользоваться не действительной, а комплексной формой записи как спектрального разложения слу- чайной функции, так и ее характеристик: спектральной плотности и корреляционной функции. Комплексная форма записи удобна, в частности, потому, что всевозможные линейные операции над функ- циями. имеющими вид гармонических колебаний (дифференцирование, интегрирование, решение линейных дифференциальных уравнений и т. д.). осуществляются гораздо проще, когда эти гармонические колебания записаны ие в виде синусов н косинусов, а в комплекс- ной форме, в виде показательных функций. Комплексная форма записи корреляционной функции н спектральной плотности применяется и в тех случаях, когда сама случайная функция (а следовательно, и ее корреляционная функция н спектральная плотность) действительна. Покажем, как можно в спектральном разложении случайной функ- ции чисто формально перейти от действительной формы к комплексной. Рассмотрим спектральное разложение (17.2.8) случайной функции X (£) на участке (0. Т): ^(0 = 2 (Рь cos 4- Уц sin (17.4.1) *=о где Ub, —некоррелированные случайные величины, причем для каждой пары Uk, Vh с одинаковыми индексами дисперсии равны: D [(/*] = D|V*1 = Dk, Учитывая, что 0)^ = ^; св0 —0, перепишем выражение (17.4.1) в виде: X (0 = Uo 4- (tfft cos 4- sin (17.4.2)
17.11 СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ В КОМПЛЕКСНОЙ ФОРМЕ 439 Придадим спектральному разложению (17.4.2) комплексную форму. Для этого воспользуемся известными формулами Эйлера: /•*»_ е-,иЫ sin -----— — I------. Подставляя эти выражения в формулу (17.4.2), имеем: X (t) = ие+ V (и. *'**+* "* -IV. ,(17.4.3) т. е. разложение с координатными функциями е1а>^, е~''°ъ1. Преобразуем разложение (17.4.3) так, чтобы в нем в качестве координатных функций фигурировали только функции e“V; для этого распространим условно область частот на отрицательные значения шив качестве частот спектрального разложения будем рассматривать значения (Л=±1, ±2,...). т. е. будем считать, что k принимает не только положительные, но и отрицательные значения. Тогда формулу (17.4.3) можно переписать в виде: л’(0=у1)+2^^^е'“‘'+ V (17,4 4) *«1 k=-\ если положить u-. = ut; V.,=V,. Формула (17.4.4) представляет собой разложение случайной функ- ции X (t). в котором в качестве координатных функций фигурируют комплексные функции в коэффициенты представляют собой комплексные случайные величины. Обозначая эти комплексные слу- чайные величины Wк (А—± 1, ±2, ...), придадим разложению(17.4.4) форму: А(0 = 2 (17.4.5) А —LO где W't = l/G при k — 0. w _ Uk-iv, 2 при k> 0, (17.4 6) w Vfr + 2 ’ при k< 0.
440 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 Докажем, что разложение (17.4.5) является каноническим раз- ложением случайной функции X (0- Для этого достаточно показать, что случайные коэффициенты этого разложения не коррелированы между собой. Рассмотрим сначала коэффициенты двух различных членов раз- ложения в положительной части спектра Wk и 11^, при k=^l, k > О, I > 0 и определим корреляционный момент этих величин. Согласно определению корреляционного момента для комплексных случайных величин (см. п° 15.9) имеем: где W, — комплексная сопряженная величина для Wt. При k > 0. I > О = | (A! IU,U,] + 1М [У,И,] - Ш |ЦК,] + М |И,К,]) = О, так как случайные величины Uk, Vk. фигурирующие в разложении (17.4.1), все не коррелированы между собой. Совершенно так же докажем некоррелированность величин Wh. Wf при любых знаках индексов k и Z, если k #= ±/. Остается доказать только некоррелированность коэффициентов при симметричных членах разложения, т. е. величин 117ft и Ц7_л при любом k. Имеем: к,.-, = ЛЦЮ'»1Г_,|= ________ = Л1 = | Л! ((U, - «V,)’] = =u| (Л1 [цЦ-Л1[кЦ-2М1 |ЦК,|). Учитывая, что величины Uk. Vk. входящие в один и тот же член разложения (17.4.1), не коррелированы и имеют одинаковые диспер- сии Dk, получим: K».-. = |(O,-D4-2Z.0)=0. Таким образом, доказано, что разложение (17.4.5) Представляет собой не что иное, как каноническое разложение случай- ной функции А'(0 с комплексными координатными функциями еш*‘ и комплексными коэффициентами W к. Найдем дисперсии этих коэффициентов. При k — О дисперсия Do осталась, очевидно, такой же, как была при действительной форме
г 17.41 СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ В КОМПЛЕКСНОЙ ФОРМЕ 441 спектрального разложения. Дисперсия каждой нз комплексных вели- чин \Vk (при А Ф 0) равна сумме дисперсий ее действительной и мни- мой частей: р^»1 । _ 2P^1 __ p*. Введем обозначение: D'k — -— при A=£0; = При A = 0 и построим дискретный спектр случайной функции X (/), распро- страненный на частоты от —со до -{-со (рис. 17.4.1). к 1------L-]--1 I 1 I 1 I I у 7 -и, О а/, ыг и>3 а/А Рис. 17.4.1. Этот спектр симметричен относительно оси ординат; от ранее построенного спектра (рис. 17.2.3) он отличается тем. что определен не только для положительных, но и для отрицательных частот, но зато его ординаты при 0 вдвое меньше соответствующих орди- нат прежнего спектра; сумма всех ординат по-прежнему равна дис- персии случайной функции X (t): D,= S О,. (17.4.7) к- — со Определим корреляционную функцию случайной функции Х(1), представленной в виде комплексного спектрального разложения (17.4.5). Применяя формулу (16.2.15) для корреляционной функции комплекс- ной случайной функции, заданной каноническим разложением, имеем: АД/, Г) = = = 2 DZe'"»''2
442 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ функции [ГЛ. п илн, переходя к аргументу т = /'—t, Мт) = 2 D'i,e‘V, (17.4.8) со где г bl =^Z)ft = y У* kx (т) cos шА-с dt прн k =£ 0 (17.4.9) и Придадим выражению (17.4.9) также комплексную форму. По- лагая получим: Полагая во втором интеграле т = — и, имеем: г -г о JАж(г)?“*’^ = — J У^Х(х)е^1^ах, с о -Г откуда £>» = 27 У'лх(т)«-'"*’л. (17.4.10) -г Таким образом^ мы построили комплексную форму спектрального разложения случайной функции на конечном интервале (0. Г). Далее естественно перейти к пределу при Т —>оо, как мы делали для действительной формы, т. е. ввести в рассмотрение спектральную плотность • bl Sjt (w) = 11m ~г~ и получить в пределе из формул (17.4.8). (17.4.. 10) интегральные соот- ношения, связывающие корреляционную функцию и спектральную плот- ность в комплексной форме. В пределе при Г—>оо_ формулы (17.4.8)
СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ В КОМПЛЕКСНОЙ ФОРМЕ 443 н (17.4.10) принимают вид: kx (т) == J Sx (ш) ez<"T rfw. (u>) = f k* (т) e~1ШХ dx‘ (17.4.11) (17.4.12) Формулы (17.4.11) н (17.4.12) представляют собой комплексную форму преобразований Фурье, связывающих корреляционную функ- цию и спектральную плотность1). Формулы (17.4.11) и (17.4.12) могут быть и непосредственно получены нз формул (17.3.9) н (17.3.10), если произвести в них замену , . ei,ux A_p-itux COS ШТ ~, положить Sx (ш) = 2Sr(ш) и расширить область интегрирования на интервал от — оо до -j- оо. Полагая в формуле (17.4.11) т = 0. получим выражение диспер- сии случайной функции X (ty Dx = [s’^dv. (17.4.13) Формула (17.4.13) выражает дисперсию случайной функции в виде суммы элементарных дисперсий, распределенных с некоторой плот- ностью по всему диапазону частот от — оо до -f- оо. Сравнивая формулу (17.4.13) и ранее выведен- ную (для действительной формы спектрального раз- ложения) формулу (17.3.2), мы видим, что они разли- чаются лишь тем, что в фор- муле (17-4.13) стоит не- сколько иная функция спе- ктральной ПЛОТНОСТИ Sjr(w), определенная не от 0 до Рнс. 17.4.2. со, а от —оо до сю, но зато с вдвое меньшими ордина- тами. Если изобразить обе функции спектральной плотности на ’) Заметим, что в главе 13, рассматривая характеристические функции, мы уже встречались с преобразованиями такого типа, а именно; характеристи- ческая функция и плотность вероятности выражаются одна через другую с помощью преобразовании Фурье.
444 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ’ [ГЛ. 17 графике, они различаются только масштабом по оси ординат и тем, что функция Sx (id) для отрицательных частот не определена (рис. 17.4.2). На практике в качестве спектральной плотности при- меняются как та, так и другая функции. Иногда в качестве аргумента спектральной плотности рассмат- ривают нс круговую частоту (а), а частоту колебаний /» выражен- ную в герцах: В этом случае подстановкой <a = 2itf формула (17.4.11) при- водится к виду: *л(т) = 2« Jsl(2«ne2-','<f/. —оа или, вводя обозначение 0АП = Ъ£х(2*/), М*) = J O,(f)e^4'df. (17.4.14) —СО Функция Gx(f) также может применяться как спектральная плотность дисперсии. Ее выражение через корреляционную функцию. очевидно, имеет вид: О,(/) = J Ал(т)е-г"'/’Л. (17.4.15) Все приведенные нами и некоторые другие применяемые на практике вы- ражения спектральной плотности, оче- видно, отличаются друг от друга только масштабом. Каждую из иих можно нормировать, деля соответству- ющую функцию спектральной плот- ности на дисперсию случайной функции. Пример 1. Корреляционная функция случайной функции X (t) задана формулой: *Jt(z) = D«-"1’1. (17.4.16) где а > О (рис. 17.4.3). Пользуясь комплексной формой преобразования Фурье, определить спектральную плотность S’(ю).
17 4] СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ В КОМПЛЕКСНОЙ ФОРМЕ 445 Решение. По формуле (17.4.12) находим: D Г 1 . 1 1 _____ Ра 2л [а — & * a-j-fw J 7t (a3 ь»а) График спектральной плотности представлен на рис. 17.4.4. Посмотрим, как будут вести себя корреляционная функция и спектраль- ная плотность при изменении а. При уменьшении я корреляционная функция будет убывать медленнее; характер изменения случайной функции становится более плавным; соответ- ственно в слектре случайной функции больший удельный вес приобретают малые частоты, кривая спектральной плотности вытягивается вверх, одновре- менно сжимаясь с боков; в пределе при a->О случайная функция выродится в обычную случайную величину с дискретным спектром, состоящим из един- ственной линии с частотой <о0 = 0. При увеличении а корреляционная функция убывает быстрее, характер колебаний случайной функции становится более резким и беспорядочным; Рис 17.4.4. Рис. 17.4.5. менее выраженным; прн о-> со спектр случайной функции приближается к равномерному (так называемому «белому») спектру, в котором иет преоб - ладания каких-либо частот
446 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ (ГЛ. 1? Пример 2. Нормированная корреляционная функция случайной функ- ции X (/) имеет вид: F* cos₽' (рнс. 17.4.5). Определить нормированную спектральную плотность. Решение. Представляем рх (т) в комплексной форме: Нормированную спектральную плотность s* (w) находим по формуле (17.4.12), подставляя в нее рж (т) вместо kx(r): —со откуда после элементарных преобразований получаем: 2« { a’+(w + f)* + ««+(„-₽)» Вид графика спектральной плотности зависит от соотношения парамет- ров а и ₽, т. е. от того, что преобладает в корреляционной функции: убывание по закону или колеба- SxM ние по закону сое 0т. Очевидно, при сравнительно малых а пре- /А А обладает колебание, при срав- /1 \ / \ интсльно больших а — убыва- I । \ / у,/ иие. В первом случае случайная / г \ / V функция близка к периодиче- / \ \ ским колебаниям частоты 0 со Х случайной амплитудой я фазой; I соответственно в спектре слу- чайной функции преобладают. :— I__________________. - . частоты, близкие к частоте 0. ~2 0 +2 Во втором случае спектраль- it л г иы® состав случайной функции Рис. 17.4.6. более равномерен, преоблада- ния тех или иных частот ие наблюдается; в пределе при а -> со спектр случайной функции приближается к «белому» спектру. В качестве иллюстрации на рис. 17.4.6 изображены нормированные спектральные плотности для случаев; I) 0 = 2, а=1 (кривая /); 2) 0=2, а = 3 (кривая ZZ). Как видно нз чертежа, при а = 1 спектр случайной функции обнаруживает ярко выраженный максимум в области частот ь>=±0. При « = 3 (кривая II) спектральная плотность в значительном диапазоне частот остается почти постоянной.
17.5] ПРЕОБРАЗОВАНИЕ СТАЦИОНАРНОЙ ЛИНЕЙНОЙ СИСТЕМОЙ 447 17.6. Преобразование стационарной случайной функции стационарной линейной системой В главе 16 мы познакомились с общими правилами линейных пре- образований случайных функций, представленных в виде канони- ческих разложений. Эти правила сводятся к тому, что при линейных преобразованиях случайных функций их математические ожидания и координатные функции подвергаются тем же линейным преобразо- ваниям. Таким образом, задача линейного преобразования случайной функции сводится к задаче такого же линейного преобразования нескольких неслучайных функций. В случае, когда речь идет о линейных преобразованиях стацио- нарных случайных функций, задачу удается упростить еще больше. Если и входное воздействие X (/) и реакция системы Y (t) стацио- нарны, задачу преобразования случайной функции можно свести к преобразованию одной-единственной неслучайной функции—спек- тральной плотности Sx(w). Для того чтобы прн стационарном воздействии реакция системы могла быть тоже стационарной, очевидно необходимо, чтобы пара- метры системы (например, входящие в нее сопротивления, емкости, индуктивности и т. п.) были постоянными, а не переменными. Усло- вимся называть линейную систему с постоянными параметрами стационарной линейной системой. Обычно работа стационарной линейной системы описывается линейными дифференциальными X(t) уравнениями с постоянными коэф- f\ у фициентами. Рассмотрим задачу о преоб- разоваяии стационарной случай- ——»- ной функции стационарной линей- ной системой. Пусть на вход ли- нейной системы L поступает стационарная случайная функция X(t); реакция системы есть случайная функция Y (t) рис. (17.5.1). Известны характеристики случайной функции А'(0: математическое ожи- дание тЛ и корреляционная функция Ах(т). Требуется опреде- лить характеристики случайной функции Y (I) на выходе линейной системы. Так как для решения задачи нам придется преобразовывать не- случайные функции — математическое ожидание и координатные функ- ции. рассмотрим прежде всего задачу об определении реакции системы L на неслучайное воздействие x(t). Напишем в операторной форме линейное дифференциальное уравнение с постоянными коэффициентами, свяшвающее реакцию
448 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ 1ГЛ. 17 системы у(0 с воздействием x(t): <“»₽" + «л-1Р""Ч- +<’|Р4-Оо)У(0 = =0«₽m+*m-i₽"‘-,+ +*1₽+ад*(о. 07-5.1) где р=~^ —оператор дифференцирования. Уравнение (17.5.1) короче можно записать в виде: Ап (Р) У (О = Вт (р) х (0. (17.5.2) или. наконец, условно разрешая уравнение (17.5.2) относительно у(0, записать оператор системы в «явном» виде: (,7-s-3) Реакцию системы L на воздействие x(t) можно найти путем ре- шения линейного дифференциального уравнения (17.5.1). Как известно из теории дифференциальных уравнений, это решение состоит из двух слагаемых: у| (0 и уп (0. Слагаемое уп (/) представляет собой решение уравнения без правой части и определяет так называемые свободные или собственные колебания системы. Это — колебания, совершаемые системой при отсутствии входного воздействия, если система в начальный момент как-то была выведена из состояния равновесия. На Практике чаще всего встречаются так называемые устойчивые системы-, в этих системах свободные колебания с тече- нием времени затухают. Если ограничиться рассмотрением участков времени, достаточно удаленных от начала процесса, когда все переходные процессы в системе можно считать законченным», и система работает в устано- вившемси режиме, можно отбросить второе слагаемое уп(0 и огра- ничиться рассмотрением только первого слагаемого yt (0. Это первое слагаемое определяет так называемые вынужденные колебания си- стемы под влиянием воздействия па нее заданной функции х(0. В случае, когда воздействие х (0 представляет собой достаточно простую аналитическую функцию, часто удается найти реакцию системы также в виде простой аналитической функции. В частности, когда воздействие представляет собой гармоническое колебание опре- деленной частоты, система отвечает иа него также гармоническим колебанием той же частоты, но измененным по амплитуде в фазе. Так как координатные функции спектрального разложения стацио- нарной случайной функции -¥(0 представляют собой гармонические1 колебания, то нам прежде всего необходимо научиться определять реакцию системы на гармоническое колебание заданной частоты «. Эта задача решается очень просто, особенно если гармоническое колебание представлено в комплексной форме.
17 51 ПРЕОБРАЗОВАНИЕ СТАЦИОНАРНОЙ ЛИНЕПНОИ СИСТЕМОЙ 449 Пусть на вход системы поступает гармоническое колебание вида: х(О = е'“'. (17.5.4) Будем искать реакцию системы у(/) также в виде гармонического колебания частоты о. но умноженного на некоторый комплексный множитель Ф(/ш): у(О=Ф(/ш)е'Ч (17.5.5) Множитель Ф(/ш) найдем следующим образом. Подставим функ- цию (17.5.4) в правую, а функцию (17.5.5) в левую часть уравнения (17.5.1). Получим: °" |Ф (/ш) е‘“'1 + “"-1 |ф (М е‘“] + • • • • + °1 1ф «'"'1 + °о [ф ('“) е'“'1 = = + +*1-^е'“' + М"'- (17.5.6) Имея в виду, что при любом k е'“' = (1ш)е в[Ф (1ш) ?“'] = (1ш)‘ е'“'ф (1Ш). atK atK и деля обе части уравнения (17.5.6) на е1а,‘, получим: ф(М[о„('“)”+о„-1(Мя"1+ ... 4-ви/ш) + а0] = = *«('“)”+*m-,(^)”-‘+ +ММ+*о- (17.5.7) Мы видим, что множитель прн Ф(/ш) представляет собой не что иное, как многочлен Ля(Р) = в«Рв + в«-1Рп'1 + 4-«iP4-e0, в который вместо оператора дифференцирования р подставлено (/со); аналогично правая часть равенства (17-5.7) есть не что иное, как В„,(/ш). Уравнение (17.5.7) можно записать в виде: Ф(1ш)Л„(1ш) = Вт(1ш), откуда । ф (1ш) = - • (17.5.8) Л„(ш) 1 ’ Функция Ф(/ш) носит специальное название частотной характе- ристики линейной системы. Для определения частотной характери- стики достаточно в оператор системы, записанный в явной форме (17.5.3), вместо оператора дифференцирования р подставить to. Таким образом, если на вход линейной системы с постоян- ными параметрами поступает гармоническое колебание вида etal, то реакция системы представляется в виде того же гармонического колебания, у множенного на частотную харак- теристику системы Ф(/ш). Пусть на вход системы поступает воз- действие вида jc(O = W"', (17.5.9) 15 Теории вероятностей
450 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ (ГЛ 1? где U — некоторая величина, не зависящая от t. В силу линейности системы величина U выходит за знак оператора, и реакция системы на воздействие (17.5.9) будет равна: у (() = t/Ф (to) е'“‘. (17.5.10) Очевидно, это свойство сохранится и в том случае, когда вели- чина U будет случайной (лишь бы она не зависела от t). Применим изложенные приемы преобразования гармонических ко- лебаний линейной системой к математическому ожиданию случайной функции X (t) и координатным функциям ее спектрального разло- жения. Представим математическое ожидание тх стационарной случайной функции X (0 как гармоническое колебание пулевой частоты ш = 0 и положим в формуле (17.5.8) ш = 0; откуда получаем математическое ожидание на выходе системы: = (17.5.12) г “о Перейдем к преобразованию линейной системой существенно слу- чайной части функции X (0. а именно функции X (0 а Х(О - тх. (17.5.13) Для ©того представим функцию X (t) на участке (0. Т) в виде спектрального разложения: А'(О = 2 у* (17.5.14) А -—со где — некоррелированные случайные величины, дисперсии кото- рых образуют спектр случайной функции X (Г). Рассмотрим отдельное слагаемое этой суммы: Л, (() = (/,«'"*!. (17.5.15) Реакция системы на это воздействие будет иметь внд: t Г, (0 = Ц,Ф (to,)/".'. (17.5.16) Согласно принципу суперпозиции реакция системы на сумму воз- действия равна сумме реакций на отдельные воздействия. Следова- тельно, реакцию системы иа воздействие (17.5.14) можно предста- вить в виде спектрального разложения: 1'W= 2 u,0(to,)/"«'. 17 61 ПРЕОБРАЗОВАНИЕ СТАЦИОНАРНОЙ ЛИНЕЙНОЙ СИСТЕМОЙ 451 или, обозначая £7АФ (/шА) = Г(О = 2 «7,/"»'. (17.5.17) А= —со где Wк — некоррелированные случайные величины с математическими ожиданиями, равными нулю. Определим спектр этого разложения. Для этого найдем диспер- сию комплексной случайной величины в разложении (17.5,17). Имея в виду, что дисперсия комплексной случайной величины равна >математическому ожиданию квадрата ее модуля, имеем: о^л1 = л1[](;лФ(/шл)|21 = л11|л/лиф(/ша)|2] = ==|Фашл)|2ЛЦ|^|21 = |ф(^А)|2£)й. (17.5.18) Мы приходим к следующему выводу: при преобразовании ста- ционарной случайной функции стационарной линейной систе- мой каждая из ординат ее спектра умножается на квадрат модуля частотной характеристики системы для соответ- ствующей частоты. Таким образом, прн прохождении стационарной случайной функ- ции через линейную стационарную систему ее спектр определенным образом перестраивается: некоторые частоты усиливаются, некоторые, напротив, ослабляются (фильтруются). Квадрат модуля частотной ха- рактеристики (в зависимости от шА) н показывает, как реагирует система на колебания той нлн иной частоты. Аналогично тому» как это делалось раньше, перейдем в спек- тральном представлении случайной функции к пределу при Т~>со и от дискретного спектра — к спектральной плотности. Очевидно, спектральная плотность иа выходе линейной системы получается из спектральной плотности на входе тем же умножением на |Ф(/ш)|2, как и ординаты дискретного спектра: Sy (и) = | Ф (/ш)|2 Sx (ш). (17.5.19) Таким образом, получено весьма простое правило: При преобразовании стационарной случайной функции стационарной линейной системой ее спектральная плотность умножается на квадрат модуля частотной характеристики системы. Пользуясь этим правилом, мы легко можем решить поставленную выше задачу: по характеристикам случайной функции на входе линей- ной системы найти характеристики случайной функции на ее выходе. Пусть иа вход стационарной линейной системы с оператором (17.5,3) поступает стационарная случайная функция X (0 с матема- тическим ожиданием тх и корреляционной функцией kx(x). Требуется найти математическое ожидание ту и корреляционную функцию Лу(т) случайной функции У (0 на выходе системы. 15»
452 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ 1ГЛ. 17 Задачу будем решать в следующем порядке. 1. Находим математическое ожидание на выходе: m = —т.. (17.5.20) 7 до 2. По корреляционной функции kx(x) находим спектральную плот- ность на входе (см. формулу (17.4 12)): $л(ш)=^- [(17.5.21) — СО 3. По формуле (17.5.8) находим частотиую характеристику си- стемы и квадрат ее модуля: <17-5-22) 4. Умножая спектральную плотность на входе иа квадрат моду- ля частотной характеристики, находим спектральную плотность на выходе: Ху (ш) = I Ф (Zw)|2Xx (w). (17.5.23) 5. По спектральной плотности Ху(ш) находим корреляционную функцию ky(x) на выходе системы: ky(x) = J Ху (is)e,u,T dw. (17.5.24) —со Таким образом, поставленная задача решена. Во многих задачах практики нас интересует ие вся корреляци- онная функция fey(T) на выходе системы, а только дисперсия Dy, равная £\ = М°)- Тогда из формулы (17.5.24) получаем при х==0 гораздо более простую формулу: Dy — J Xy(w)dw. или. учитывая четность функции Ху(ш), Dy = 2j S,(<»)dw. (17.5.25) О ') Для простоты записи мы здесь опускаем знак * в обозначении спек- тральной плотности.
17.51 ПРЕОБРАЗОВАНИЕ СТАЦИОНАРНОЙ ЛИНЕЙНОЙ СИСТЕМОЙ 453 Пример. Работа линейной динамической системы описывается линей- ным дифференциальным уравнением первого порядка: йо) У (О = ^о)х (0- (17.5.26) или у «) = tta А(0. CiP+Go На вход системы поступает стационарная случайная функция X (I) с ма- тематическим ожиданием тх и корреляционной функцией * *t(0=Dxe-“lxl. (17.5.27) где а — положительный коэффициент (см. пример 1 п° 17.4). Найти матема- тическое ожидание ту и дисперсию Dy на выходе системы >). Решение. По формуле (17.5.20) имеем: ту = тх. у йо Очевидно величина ту не зависит от параметра а, растет при возра- стании Ьо и убывает при возрастании aD. Спектральную плотность на входе определяем как в примере 1 п° 17.4: «.(<«) =27 и квадрат ее модуля: (см. рис. 17.4.4). По формуле (17.5.8) находим частотную характеристику системы: Ф(М=^±^. 4“ Со +4>г _ |Ф(/О>)Р = Затем определяем спектральную плотность на выходе системы: D Й<о2+Й « Sy (») = |«(ta)l’S, («.) = 'г ° -5—5 . я a -j-ur Далее по формуле (17.5.25) определяем дисперсию на выходе: -j- dti>. D, *1 Выбирая для корреляционной функции случайной функции X (/) выра- жение типа (17.5.27), широко применяемое на практике ввиду его простоты, необходимо иметь в виду следующее. Строго говоря, случайная функция X (0, имеющая корреляционную функцию такого вида, иедифференцируема, и, сле- довательно, для нее нельзя писать дифференциальные уравнения в обычном смысле слова. Это затруднение можно обойти, если рассматривать выраже- ние (17.5.27) для корреляционной функции только как приближенное
454 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ 17 выражение на Для вычисления интеграла разложим подынтегральное простые дроби: и определим коэффициенты: В=а-5Т-----Г’ Срг — Oq После интегрирования получим: D =D Д1^ + ^1° у * ОоМ01“ + °о) В заключение данного п° упомянем о том, как преобразуется линейной системой -стационарная случайная функция, содержащая в качестве слагаемого обычную случайную величину: - А(0 = Ц)+*(0. (17.5.28) где Uo—случайная величина с дисперсией Do. X (t)-—стационарная случайная функция. Реакция системы на воздействие Xj(0 найдется как сумма реак- ций на отдельные воздействия в правой части (17.5.28). Реакцию на воздействие X (I) мы уже умеем находить. Воздействие UQ мы рас- смотрим как гармоническое колебание нулевой частоты ш = 0; со- гласно формуле (17.5.11) реакция на него будет равна Г0 = -^-ио. (17.5.29) Слагаемое просто прибавится к реакции системы на воздей- ствие X (/). I7.G. Применения теории стационарных случайных процессов к решению задач, связанных с анализом и синтезом динамических систем В предыдущем п° был рассмотрен вопрос о преобразовании ста- ционарной случайной функции стационарной линейной системой и получены простые математические приемы решения этой задачи. Преобразование случайной функции свелось к простейшему пре- образованию (умножению на квадрат модуля частотной характеристи- ки) одной-единственной функции: спектральной плотности. Такая про- стота спектральной теории стационарных случайных процессов делает ее незаменимым аппаратом при исследовании линейных динамических систем, работающих в условиях наличия случайных возмущений (помех).
17.61 ПРИМЕНЕНИЯ ТЕОРИИ СТАЦИОНАРНЫХ ПРОЦЕССОВ 466 Обычно при решении практических задач нас интересует не сама по себе корреляционная функция ky(x) на выходе системы, а связан- ная с нею дисперсия Dy=kv(P), которая характеризует ошибки системы, вызванные поступающими на нее случайными возмущениями, и во многих случаях может служить критерием точности работы системы. При исследовании динамических систем методами теории случай- ных функций решаются два вида задач, которые можно назвать «пря- мыми» и «обратными». Прямая задача состоит в следующем. Анализируется заданная линейная динамическая система с вполне определенными параметрами, работа которой описывается линейным дифференциальным уравнением: (“„Р" + «„- tP"-'+ ••• +«|Р + «о)У</) = 1 T +b,p-FA)хW. (17.6.1) Требуется исследовать точность работы системы при наличии на ее входе стационарного случайного воздействия—так называемой «стационарной помехи». Для этого прежде всего исследуется случай- ная помеха, определяются ее корреляционная функция н спектральный ссстав. Далее, описанными выше методами находятся спектр и дис- персия случайней функции иа выходе системы. Дисперсия на выходе, очевидно, зависит как от характеристик случайного воздействия на входе, так и от коэффициентов уравнения. Решая такую задачу. Можно оценить точность работы заданной системы в условиях раз- личного рода помех. Обратная задача состоит в том, чтобы так выбрать коэффициенты уравнения (17.6.1), чтобы при заданном спектральном составе помехи ошибки на выходе системы были минимальными. При заданных ха- рактеристиках случайной функции (помехи) на входе системы диспер- сия на выходе зависят от всей совокупности коэффициентов урав- нения: Оу = Оу(о„, о„_,.....о„ л0. г>„, bnr.i, bu />„). Коэффициенты уравнения зависят от конструктивных параметров ^.системы, и некоторыми из них при проектировании системы можно в достаточно широких пределах распоряжаться. Задача выбора рацио- нальных значений этих параметров может быть решена исходя из того требования, чтобы дисперсия Dy была минимальна. Следует оговориться, что на практике часто ие удается пол- ностью удовлетворить этому требованию. Действительно, выведенные нами выражения для корреляционной функции и дисперсии па выходе системы справедливы только для значений времени t, достаточно удаленных от начала случайного процесса, когда все переходные процессы в системе, связанные с ее свободными колебаниями, успели
456 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ 17 уже затухнуть. В действительности же часто приходится применять линейные динамические системы (прицелы, счетно-решающие меха- низмы, следящие системы и т. п.) на ограниченном участке времени; при этом быстрота затухания переходных процессов в системе суще- ственно зависит от ее конструктивных параметров, т. е. от тех же коэффициентов уравнения (17.6.1). Если выбрать эти коэффициенты так, чтобы они обращали в минимум дисперсию на выходе (для достаточно удаленных моментов времени), это, как правило, приво- дит к тому, что на выходе системы появляются другие ошибки, свя- ванные с тем, что переходные процессы в системе еще не успели затухнуть. Эти ошибки обычно называют динамическими ошибками. В связи с ограниченностью времени применения линейных систем и наличием динамических ошибок на практике обычно приходится решать задачу о рациональная выборе параметров системы не на чистом принципе минимума дисперсии, а с учетом динамических оши- бок. Рациональное решение задачи находится как компромиссное, при котором^ с одной стороны, дисперсия па выходе системы достаточно мала, с другой стороны—динамические ошибки не слишком велики. В случае, когда ищутся оптимальные параметры системы с учетом как дисперсии, так и систематических динамических ошибок, часто в качестве критерия точности работы системы выбирают второй на- чальный момент а2 на выходе системы: «2 = 0, + ™*. (17.6.2) где —дисперсия, niv —систематическая ошибка иа выходе системы. При этом параметры системы выбирают так, чтобы они обращали в минимум величину а2. Иногда в качестве критерия для оценки системы выбирают не дисперсию и не второй начальный момент, а какую-либо другую величину, связанную с целевым назначением системы. Например, при исследовании прицельных устройств п систем управления, предназна- ченнных для стрельбы, к выбору их параметров часто подходят, исходя из максимума вероятности поражения цели. Упомянем еще об одной типичной задаче, связанной с рациональ- ным конструированием динамических систем. До сих пор мы рассмат- ривали только задачу о рациональном выборе коэффициентов урав- нения (17.6.1), самый же вид уравнения считался заданным. При решении задач, связанных с так называемым синтезом динамических систем, задача ставится более широко. В частности, ставится во- прос о рациональном выборе самого вида уравнения или, еще шире, задача об определении оптимального оператора динамической системы. Такого рода задачи в настоящее время успешно решаю гея методами теории случайных функций. При решении практических задач, связанных с анализом и син- тезом динамических систем, часто не удается ограничиться кругом
177] ЭРГОДИЧЕСКОЕ СВОЙСТВО СТАЦИОНАРНЫХ ФУНКЦИЙ 457 стационарных случайных процессов и относящимся к нему аппаратом спектральной теории. Однако в ряде случаев, несколько видоизменив этот аппарат, можно применить его и для нестационарных процессов. На практике часто встречаются так называемые «квазистанионарные» случайные функции и «квазистационар иые» динамические системы; они характерны тем, что изменения характеристик случайных функ- ций и параметров системы со временем протекают сравнительно мед- ленно. Для таких случайных процессов В. С. Пугачевым разработан метод, по структуре мало отличающийся от спектрального, но при- менимый в более широком диапазоне условий1). 17.7. Эргодическое свойство стационарных случайных функций Рассмотрим некоторую стационарную случайную функцию X (0 и предположим, что требуется оценить ее характеристики: матема- тическое ожидание тх и корреляционную функцию Ах(т). Выше (см. п° 15.4) были изложены способы получения этих характеристик из опыта. Для этого нужно располагать известным числом реализа- ций случайной функции X(/). Обрабатывая эти реализации, можно найти оценки для математического ожидания тх(Г) и корреляционной функции Kx(t, f). В связи с ограниченностью числа наблюдений функция mx(t) не будет строго постоянной; ее придется осреднить и заменить некоторым постоянным тх\ аналогично, осредняя значе- ния Kx(t, t') для разных x = t' — t, получим корреляционную функ- цию kx (т). Этот метод обработки, очевидно, является довольно сложным и громоздким и к тому же состоит из двух этапов: приближенного определения характеристик случайной функции и также приближен- ного осреднения этих характеристик. Естественно возникает вопрос: нельзя ли для стационарной случайной функции этот сложный, двух- ступенчатый процесс обработки заменить более простым, который заранее базируется на предположении, что математическое ожидание не зависит от времени, а корреляционная функция—от начала отсчета? Кроме того, возникает вопрос: при обработке наблюдений над стационарной случайной функцией является ли существенно необхо- димым располагать несколькими реализациями? Поскольку случай- ный процесс является стационарным и протекает однородно по времени, естественно предположить, что одна-едмнственная реализа- ция достаточной продолжительности может служить достаточным опыт- ным материалом для получения характеристик случайной функции. ') См. В. С. Пугачев. Теория случайных функций н ее применение к задачам автоматического управления, Физматгиэ, 1962.
458 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 При более подробном рассмотрении этого вопроса оказывается, что такая возможность существует не для всех случайных процессов: не всегда одна реализация достаточной продолжительности оказы- вается эквивалентной множеству отдельных реализаций. Для примера рассмотрим две стационарные случайные функции X|(f) и Х2(/), представленные совокупностью своих реализаций на рис. 17.7.1 и 17,7.2. ’ Рис. 17.7.1. Для случайной функции Х} (<) характерна следующая особенность: каждая из ее реализаций обладает одними и теми же характерными признаками: средним значением, вокруг которого происходят колеба- ния, и средним размахом этих колебаний. Выберем произвольно одну из таких реализаций и продолжим мысленно опыт, в результате которого онз получена, на некоторый участок времени Т. Очевидно, при достаточно большом Т эта одна реализация сможет дать нам достаточно хорошее представление о свойствах случайной функции в целом. В частности, осредняя значения этой реализации вдоль оси абсцисс — по времени, мы должны получить приближенное значение математического ожидания случайной функции; осредняя квадраты отклонений от этого среднего, мы должны получить приближенное значение дисперсии, и т. д. Про такую случайную функцию говорят, что она обладает эрго- дическим свойством. Эргодическое свойство состоит в том, что каж- дая отдельная реалнзаиия случайной функции является как бы «пол- номочным представителем» всей совокупности возможных реализаций;
17 7] ЭРГОДИЧЕСКОЕ СВОЙСТВО СТАЦИОНАРНЫХ ФУНКЦИЙ 459 одна реализация достаточной продолжительности может заменить прн обработке множество реализаций той же общей продолжительности 9- Рассмотрим теперь случайную функцию ХЭ(О« Выберем произ- вольно одну из ее реализаций, продолжим ее мысленно на доста- точно большой участок времени и вычислим ее среднее значение по времени на всем участке наблюдения. Очевидно, это среднее значе- ние для каждой реализации будет свое и может существенно отли- чаться от математического ожидания случайной функции, построенного как среднее из множества реализаций. Про такую случайную функ- цию говорят, что она ие обладает эргодическим свойством. Если случайная функция X (/) обладает эргодическим свойством, то для нее среднее по времени (на достаточно большом участке на- блюдения) приближенно равно среднему по множеству наблю- дений. То же будет верно и для X2(t), X (t) • Х(^-}-т) и т. д. Сле- довательно, все характеристики случайной функции ^математическое ожидание, дисперсию, корреляционную функцию) можно будет при- ближенно определять по одной достаточно длинной реализации. Какие же стационарные случайные функции обладают, а какие не обладают эргодическим свойством? Поясним этот вопрос наглядно, исходя из примера. Рассмотрим случайную функцию a(f) — колебания угла атаки самолета на уста- новившемся режиме горизонтального полета. Предположим, что по- лет происходит в каких-то типичных средних метеорологических усло- виях. Колебания угла атаки вызваны случайными возмущениями, свя- занными с турбулентностью атмосферы. Среднее значение угла атаки, около которого происходят колебания, зависит от высоты полета Н. Зависит от этой высоты и размах колебаний: известно, что в нижних слоях атмосферы турбулентность сказывается сильнее, чем в верхних. Рассмотрим случайную функцию а (О — колебания угла атаки на заданной высоте Н. Каждая из реализаций этой случайной функ- ции осуществляется в результате воздействия одной и той же группы случайных факторов и обладает одними и теми же вероятностными характеристиками; случайная функция а (/) обладает эргодическим свойством (рис. 17.7.3). Представим себе теперь, что рассматривается случайная функция a(f) не для одной высоты Н, а для целого диапазона, внутри кото- рого задан какой-то закон распределения высот (например, закон равномерной плотности). Такая случайная функция, оставаясь стацио- нарной, очевидно, уже не будет обладать эргодическим свойством; ее возможные реализации, осуществляющиеся с какими-го вероятностями, имеют различный характер (рис. 17.7.4). ') Строго говоря, следовало бы сказать ие- «каждая отдельная реализа- ция», а «почти каждая». Дело в том, что в отдельных случаях могут по- являться реализации, не обладающие таким свойством, но вероятность по- явления такой реализации равна нулю.
460 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ ГГ.П 17 Для этого случайного процесса характерно то, что он как бы «рззложим» па более элементарные случайные процессы; каждый из них осуществляется с некоторой вероятностью и имеет свои индиви- дуальные характеристики. Таким образом, разложимость, Рис. 17.7.3. внутренняя неоднородность случайного процесса, протекающего с не- которой вероятностью по тому или другому типу, есть физическая причина неэргодичнести этого процесса. Рис 17.7.4. В частности, неэргодичность случайного процесса может быть связана с наличием в его составе слагаемого в виде обычной случай- ной величины (т. е. наличие в спектре случайного процесса, помимо непрерывкой части, конечной дисперсии при частоте 0). Действительно, рассмотрим случайную функцию Z(f)«X(/)+K. (177.1) где X(f)— эргодическая стационарная случайная функция с характе- ристиками тх, йх(т), V — случайная величина с характеристиками и Dyt предположим к тому же, что X (t) и V некор рели рован и ы. Определим характеристики случайной функции Z (0- Согласно общим правилам сложения случайных функций (см. п° 15.8) имеем: тг = тх + ту, (17.7.2) + (17.7.3) Из формул (17.7.2) и (17,7.3) видно, что случайная функция Z(t) является стационарной. Но обладает ли она эргодическим свойством? Очевидно, нет. Каждая ее реализация будет по характеру отличаться от других, будет обладать тем или иным средним по времени зна-
17.71 ЭРГОДИЧЕСКОЕ СВОЙСТВО СТАЦИОНАРНЫХ ФУНКЦИЙ 461 чением в зависимости от того, какое значение приняла случайная величина У (рис. 17.7.5). Об эргодичности или неэргодичности случайного процесса может непосредственно свидетельствовать вид его корреляционной функции. Действительно, рассмотрим корреляционную функцию неэргодической случайной функции (17.7.1). Она отличается от корреляционной функ- ции случайной функции X (t) наличием постоянного слагаемого Dv Рис. 17.7.5. (рис. 17.7.6). В то время как корреляционная функция kx(x) стре- мится к нулю при х—>оо (корреляционная связь между значениями случайной функции неограниченно убывает по мере увеличения рас- стояния между ними), функция kg(x) уже не стремится к нулю при f->oo; а приближается к постоянному значе- нию Dy. На практике мы не имеем возможности иссле- довать случайный процесс и его корреляционную функцию на бесконечном участке времени; участок значений х, с которым мы имеем дело, всегда огра- ничен. Если при этом корреляционная функция стационарного случайного процесса при увеличении х не убывает, а, начиная с некоторого т, остается приблизительно постоянной, это обычно есть признак того, что в составе случайной функции имеется слагаемое в виде обычной случайной величины н что процесс не является эрго- дическим. Стремление же корреляционной функции к нулю при t—>оо говорит в пользу эргодичности процесса. Во всяком случае оно
462 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ. 17 достаточно для того, чтобы математическое ожидание функции можно было определять как среднее по времени. При решении практических задач часто суждение об эргодичности случайного процесса выносится не на основе исследования поведения корреляционной функции при х—>оо, а на основании физических соображений, связанных с существом процесса (его предположительной «разложимостью» или «неразложимостью» на элементарные процессы различного типа, появляющиеся с некоторыми вероятностями). 17.8. Определение характеристик эргодической стационарной случайной функции по одной реализации Рассмотрим стационарную случайную функцию X (t), обладающую эргодическим свойством, и предположим, что в нашем распоряжении имеется всего одна реализация этой случайной функции, но зато на достаточно большом участке времени Т. Для эргодической стационар- ной случайной функции одна реализация достаточно большой про- должительности практически эквивалентна (в смысле объема сведений о случайной функции) множеству реализаций той же общей продол- жительности; характеристики случайной функции могут быть прибли- женно определены не как средние по множеству наблюдений, а как средние по времени t. В частности, при достаточно большом Т математическое ожидание гпх может быть приближенно вычислено по формуле f (17.8.1) О Аналогично может быть приближенно найдена корреляционная функция Ах(т) при любом т. Действительно, корреляционная функция, по определению, представляет собой не что иное, как математиче- ское ожидание случайной функции X (0 X (t т): kx (?) = МIX (0 X (t Н- т)]. (17.8.2) Это математическое ожидание также, очевидно, может быть прибли- женно вычислено как среднее по времени. Фиксируем некоторое значение t и вычислим указанным способом корреляционную функцию kx(x). Для этого удобно предварительно «центрировать» данную реализацию х(0, т. е. вычесть нз нее мате- матическое ожидание (17.8,1): х(0=х(0 — тх. (17.8.3) ’) Для простоты записи мы здесь опускаем знак прн характеристиках случайной функции, означающий, что мы имеем дело не с самими характе- ристиками, а с их Оценками.
17.8} ОПРЕДЕЛЕНИЕ ХАРАКТЕРИСТИК 9РГОЛИЧЕСКОЯ ФУНКЦИИ 463 Вычислим при заданном т математическое ожидание случайной функции X (t) X (t + т) как среднее по времени. При этом, очевидно, нам придется учитывать не весь участок времени от 0 до Г, а не- сколько меньший, так как второй сомножитель Л'^ + 'с) известен нам не для всех t, а только для тех, для которых Вычисляя среднее по времени указанным выше способом, получим: Г-т x(t)°x(t + x)dt. (17.8.4) О Вычислив интеграл (17.8.4) для ряда значений -t. можно прибли- женно воспроизвести по точкам весь ход корреляционной функции. На практике обычно интегралы (17.8.1) и (17.8.4) заменяют конечными суммами. Покажем, как это делается. Разобьем интервал Рис. 178.1. взписи случайной функции на п равных частей длиной и обозна- чим середины полученных участков t2.......tn (рис. 17.8.1), Пред- ставим интеграл (17.8.1) как сумму интегралов по элементарным участкам А/ и на каждом из них вынесем функцию х (t) из-под знака интеграла средним значением, соответствующим центру интервала х (^). Получим приближенно: п 1*1 или л =4^ *’(«,). (17.8.5) Аналогично можно вычислить корреляционную функцию для значе- ний т, равных О, А/, 2 At, ... Придадим, например, величине т значение ., m Т x~mAt =-------------------------------- п и вычислим интеграл (17.8.4), деля интервал интегрирования „ шТ п — m — Т — х = Т-------~-------Т л п
464 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [TJT 1? на п—т равных участков длиной Lt и вынося на каждом из них функцию x(t)x(t -|-т) за знак интеграла средним значением. Получим: ftjt (“7") = (п —т) Г 7 i г w х Vl+n)’ i=l или окончательно и— т <17-8-6) Вычисление корреляционной функции по формуле (17.8.6) произ- водят для m = 0, 1, 2, ... последовательно вплоть до таких значе- ний т, при которых корреляционная функция становится практически равной нулю или начинает совершать небольшие нерегулярные коле- бания около нуля. Общий ход функции kx(x) воспроизводится по отдельным точкам (рис. 17.8.2). Для того чтобы математическое ожидание тх и корреляционная функция kx(x) были определены с удовлетворительной точностью, нужно, чтобы число точек п было достаточно велико (порядка сотни, \ я в некоторых случаях даже не- \ скольких сотен). Выбор длины эле- \ ментарного участка Lt опреде- \ ляется характером изменения слу- X чайной функции. Если случайная \ функция изменяется сравнительно \ плавно, участок Lt можно выби- 2? /4/ \ 7 рать ббльшим, чем когда она со- »-—вершает резкие и частые колеба- Рис. J7.8.2. ния« Чем более высокочастотный состав имеют колебания, образую- щие случайную функцию, тем чаще нужно располагать опорные точки при обработке. Ориентировочно можно рекомендовать выбирать элементарный участок Lt. так, чтобы на полный период самой высо- кочастотной гармоники в составе случайной функции приходилось порядка 5—10 опорных точек. Часто выбор опорных точек вообще не зависит от обрабатываю- щего, а диктуется темпом работы записывающей аппаратуры. В этом случае следует вести обработку непосредственно полученного из Опыта материала, не пытаясь вставить между наблюденными значениями про- межуточные, так как это не может повысить точности результата, а излишне осложнит обработку. Пример. В условиях горизонтального полета самолета произведена запись вертикальной перегрузки, действующей на самолет. Перегрузка ре- гистрировалась на участке времени 200 сек с интервалом 2 сек. Результаты
17Я] ОПРЕДЕЛЕНИЕ ХАРАКТЕРИСТИК ЭРГОДИЧЕСКОЙ ФУНКЦИИ 465 приведены в таблице 17.8.1. Считая процесс изменения перегрузки стационар- ным. определить приближенно математическое ожидание перегрузки mN, дисперсию Dn и нормированную корреляционную функцию р (т). Аппрокси- мировать pv (") какой-либо аналитической функцией, найти и построить спектральную плотность случайного процесса. Таблица 17.8.1 1 1сек} Перегрузка N.t} teex) Перегрузка А'(/) | 1гек1 Перегрузка А' (О | (ее*) Перегрузка 0 1.0 50 1.0 1 100 L2 1 150 0,8 2 1.3 52 1.1 102 1.4 ; 152 0,6 4 LI 54 1.5 104 0.8 154 0,9 6 0.7 56 1,0 106 0,9 156 1.2 8 0.7 58 0,8 108 10 158 L3 10 1,1 60 1.1 НО 0,8 160 0,9 12 1,3 62 1 1 112 0,8 162 1.3 14 0,8 64 1.2 114 1,4 164 1.5 16 0,8 66 1.0 116 1.6 166 1.2 18 0,4 68 0.8 118 1,7 168 1.4 20 0,3 70 0,8 120 1.3 170 1,4 22 0.3 72 1.2 122 1.6 172 0.8 24 0,6 74 0,7 124 0,8 174 0.8 26 0,3 76 0,7 126 1.2 176 1.3 28 0.5 78 1.1 128 0,6 178 1.0 30 0.5 80 1.5 130 1.0 180 0,7 32 0.7 82 1.0 132 0,6 182 1.1 34 0,8 84 0,6 134 0,8 184 0.9 36 0,6 86 0.9 136 07 186 0.9 38 1.0 88 0,8 138 0,9 188 1.1 40 0,5 90 0,8 140 1,3 190 1.2 42 l.o 92 0.9 142 1.5 192 1.3 44 0,9 94 0,9 144 1.1 194 1.3 46 1.4 96 0,6 146 0,7 196 1.6 48 1.4 98 0.4 148 1.0 198 1.5 Решение. !1о формуле (17.8.5) имеем: 100 тлг~'*'1(Ю ~098- Центрируем случайную функцию (табл. 17.8.2). Волво in в квадрат все значения А(/) и деля сумму на п = ТОО получим приближенно дисперсию случайной функции N (I): ню V |,vff,)f D№—W—аОДО45
466 СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ [ГЛ \1 Таблица 17.8.2 t (сек) Л (Л t (сек} Л (Л (ССК) JVtfl (еекУ JV(T1 0 0,02 50 0,02 100 0,22 150 — 0,13 2 0,32 52 0,12 102 0.42 152 - 0,38 4 0,12 54 0,52 104 — 0,18 151 — 0.08 6 0.28 56 0,02 106 — 0,08 156 0.22 8 0.28 58 — 0,18 103 0,02 158 0,32 10 0.12 60 0,12 110 — 0,18 160 — 0,0о 12 0.32 62 0,12 112 — 0.18 162 0.32 14 — 0,18 64 0,22 114 0,42 164 0,52 16 — 0,18 66 0.02 116 0,62 166 0.22 18 — 0,58 68 — 0.18 118 0.72 168 0,42 20 --0,68 70 — 0,18 120 0.32 170 0,42 22 — 0,68 72 0,22 122 0,62 172 — 0,18 24 - 0.38 74 — 0,28 124 — 0.18 174 — 0,18 26 — 0,68 76 — 0,28 126 0,22 176 0,32 28 — 0.48 78 0,12 128 — 0,38 178 0,02 30 — 0.48 80 0,52 130 0,02 180 — 0,28 32 -0,28 82 0,02 132 — 0,38 182 0,12 34 — 0,18 84 -0,38 134 — 0,18 184 — 0,08 36 -0,38 86 — 0,08 138 — 0,28 186 — 0,05 38 0.02 88 — 0,18 138 — 0,08 188 0,12 40 — 0,48 90 — 0,18 140 0,32 190 0,22 42 0,02 92 -0,08 142 0,52 192 032 44 — 0.08 94 -г-0,08 144 0,12 194 0,32 46 0,42 96 — 0,38 146 — 0,28 198 0,62 48 0,42 98 -0,58 148 0,02 198 0,52 к среднее квадратическое отклонение: и 0,323. Перемножая значения N(t), разделенные интервалом т = 2. 4, 6, ...» и деля сумму произведений соответственно на п —1=99; п —2 = 98; п — 3 = 97........................................ получим значения корреляционной функ- ции Av(r)- Нормируя корреляционную функцию делением на 0^=0,1045, по- лучим таблицу значений функции рлг (т) (табл. 17.8.3). График функции рдгО представлен па рис. 17.8.3 в виде точек, соединенных пунктиром. Не вполне гладкий ход кор- реляционной функции может быть объ- яснен недостаточным объемом экспери- ментальных данных (недостаточной про- Рис. 17.8.3, должительностыо опыта), в связи с чем случайные неровности в хоте функции ие успевают сгладиться. Вычисление piV(t) продолжено до таких значений т, при которых фактически корреляционная связь пропадает.
17.8] ОПРЕДЕЛЕНИЕ ХАРАКТЕРИСТИК ЭРГОДИЧЕСКОЙ ФУНКЦИИ 467 Для того чтобы сгладить явно незакономерные колебания эксперимен- тально найденной функции Pjy(9» заменим ее приближенно функцией вида: р* и—*-” 'Ч где параметр а подберем методом наименьших квадратов (см. п° 14.5). Таблица 17.8.3 2 P^W=e-0 1 ’1 0 1,000 1,000 2 0.505 0.598 4 0,276 0.358 6 0,277 0,214 8 0,231 0,128 10 —9,015 0,077 12 0,014 0,046 14 0,071 0,027 Применяя этот метод, находим а = 0,257. Вычисляя значения функции р^(т) при -с —О, 2, 4,..., построим график сглаживающей кривой. На рис. 17.8.3 он проведен сплошной линией. В последнем столбце таблицы 17.8.3 приве- дены значения функции р^г(т). Пользуясь приближенным выражением корреляционной функции (17.8.6), получим (см. п° 17.4, пример 1) нормированную спектральную плотность слу- чайного процесса в виде: с*/. л_ а _ 0.257 я я (0,257! + График нормированной спектральной плотности представлен на рис. 17.8.4.
ГЛАВА 18 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ 18.1. Предмет и задачи теории информации Теорией информации называется наука, изучающая количествен- ные закономерности, связанные с получением, передачей, обработкой и хранением информации. Возникнув в 40-х годах нашего века из практических задач теории связи, теория информации в настоящее время становится необходимым математическим аппаратом при изуче- нии всевозможных процессов управления. Черты случайности, присущие процессам передачи информации, заставляют обратиться при изучении этих процессов к вероятностным методам. При этом не удается ограничиться классическими методами теории вероятностей, и возникает необходимость в создании новых вероятностных категорий. Поэтому теория информации представляет собой не просто прикладную науку, в которой применяются вероят- ностные методы исследования, а должна рассматриваться как раздел теории вероятностей. Получение, обработка, передача и хранение различного рода ин- формации — непременное условие работы любой управляющей системы. В этом процессе всегда происходит обмен информацией между раз- личными звеньями системы. Простейший случай — передача информа- ции от управляющего устройства к исполнительному органу (передача команд). Более сложный случай — замкнутый контур управления, в ко- тором информация о результатах выполнения команд передается уп- равляющему устройству с помощью так называемой «обратной связи». Любая информация для того, чтобы быть переданной, должна быть соответственным образом «закодирована», т. е. переведена на язык специальных символов или сигналов. Сигналами, передающими информацию, могут быть электрические импульсы, световые или зву- ковые колебания, механические перемещения и т. д. Одной из задач теории информации является отыскание наиболее экономных методов кодирования, позволяющих передать ззданную информацию с помощью минимального количества символов. Эта задача решается как при отсутствии, так н при наличии искажений (помех) в канале связи.
ЭНТРОПИЯ 469 18-21 Другая типичная задача теории информации ставится следующим образом: имеется источник информации (передатчик), непрерывно вы- рабатывающий информацию, и канал связи, по которому эта инфор- мация передается в другую инстанцию (приемник). Какова должна быть пропускная способность канала связи для того, чтобы канал «справлялся» со своей задачей, т. е. передавал всю поступающую информацию без задержек и искажений? Ряд задач теории информации относится к определению объема запоминающих устройств, предназначенных для хранения информации, к способам ввода информации в эти запоминающие устройства и вы- вода ее для непосредственного использования. Чтобы решать подобные задачи, нужно прежде всего научиться измерять количественно объем передаваемой или хранимой информа- ции, пропускную способность каналов связи и их чувствительность к помехам (искажениям). Основные понятия теории информации, из- лагаемые в настоящей главе, позволяют дать количественное описа- ние процессов передачи информации и наметить некоторые матема- тические закономерности, относящиеся к этим процессам. 18.2. Энтропия как мера степени неопределенности состояния физнчесиой системы Любое сообщение, с которым мы имеем дело в теории информа- ции, представляет собой совокупность сведений о некоторой физи- ческой системе. Например, на вход автоматизированной системы управления производственным цехом может быть передано сообщение о нормальном или повышенном проценте брака, о химическом со- ставе сырья или температуре в печи. На вход системы управления средствами противовоздушной обороны может быть передано сооб- щение о том, что в воздухе находятся две цели, летящие иа опре- деленной высоте, с определенной скоростью. На тот же вход может быть передано сообщение о том. что иа определенном аэродроме в данный момент находится такое-то количество истребителей в бое- вой готовности, или что аэродром выведен из строя огневым воз- действием противника, нли что первая цель сбита, а вторая продол- жает полет с измененным курсом. Любое из этих сообщений опи- сывает состояние какой-то физической системы. Очевидно, если бы состояние физической системы было известно заранее, не было бы смысла передавать сообщение. Сообщение при- обретает смысл только тогда, когда состояние системы заранее не- известно, случайно. Поэтому в качестве объекта, о котором передается информация, мы будем рассматривать некоторую физическую систему X. которая случайным образом может оказаться в том или ином состоянии, т. е. систему, которой заведомо присуща какая-то степень
470 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 неопределенности. Очевидно, сведения, полученные о системе, будут, вообще говоря, тем ценнее и содержательнее, чем больше была неопределенность системы до получения этих сведений («априори»). Возникает естественный вопрос: что значит «большая» или «мень- шая» степень неопределенности и чем можно ее измерить? Чтобы ответить на этот вопрос, сравним между собой две си- стемы. каждой нз которых присуща некоторая неопределенность. В качестве первой системы возьмем монету, которая в результате бросания может оказаться в одном из двух состояний: I) выпал герб и 2) выпала цифра. В качестве второй—игральную кость, у которой шесть возможных состояний: 1, 2, 3, 4, 5 и 6. Спрашивается, не- определенность какой системы больше? Очевидно, второй, так как у нее больше возможных состояний, в каждом из которых она мо- жет оказаться с одинаковой вероятностью. Может показаться, что степень неопределенности определяется числом возможных состояний системы. Однако в общем случае это не так. Рассмотрим, например, техническое устройство, которое мо- жет быть в двух состояниях: 1) исправно и 2) отказало. Предполо- жим, что до получения сведений (априори) вероятность исправной работы устройства 0,99. а вероятность отказа 0.01. Такая система обладает только очень малой степенью неопределенности: почти на- верное можно предугадать, что устройство будет работать исправно. При бросании монеты тоже имеется два возможных состояния, но степень неопределенности гораздо больше. Мы видим, что степень неопределенности физической системы определяется не только числом ее возможных состояний, но и вероятностями состояний. Перейдем к общему случаю. Рассмотрим некоторую систему X, которая может принимать конечное множество состояний: jCj, х2, ... .... х„ с вероятностями pv р2....ра, где p^PfX — xJ (18.2.1) — вероятность того, что система X примет состояние xt (символом X~xt обозначается событие: система находится в состоянии х$. п Очевидно, Р(= 1. Запишем эти данные в виде таблицы, где в верхней строке пе- речислены возможные состояния системы, а в нижней — соответствую- щие вероятности: Xt I xt ха ... хп Pl Pl Рч Рп
J821 ЭНТРОПИЯ 471 Эта табличка по написанию ехидна с рядом распределения пре- рывной случайной величины X с возможными значениями xv х2......хп. имеющими вероятности pv р2, .... р„. И действительно, между физической системой X с конечным множеством состояний и пре- рывной случайной величиной много общего; для того чтобы свести первую ко второй, достаточно приписать каждому состоянию какое-то числовое значение (скажем, номер состояния). Подчеркнем, что для описания степени неопределенности системы совершенно неважно, какие именно значения х2, ..хп записаны в верхней строке таблицы; важны только количество этих значений и их ве- р о я т н о с т и. В качестве меры априорной неопределенности системы (или пре- рывной случайной величины Х~) в теории информации применяется специальная характеристика, называемая энтропией. Понятие об энтропии является в теории информации основным. Энтропией системы называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взя- тзя с обратным знаком: п = (18.2.2) 1 = 1 Энтропия Н(ЛЭ. как мы увидим в дальнейшем, обладает рядом свойств, оправдывающих ее выбор в качестве характеристики степени неопределенности. Во-первых, опа обращается в нуль, когда одно из состояний системы достоверно, а другие — невозможны. Во-вторых, при заданном числе состояний она обращается в максимум, когда эти состояния равновероятны, а при увеличении числа состояний — увеличивается. Наконец, и это самое главное, она обладает свойством аддитивности, т. е. когда несколько независимых систем объеди- няются в одну, их энтропии складываются. Логарифм в формуле (18.2.2) может быть взят при любом осно- вании а > 1. Перемена основания равносильна простому умножению энтропии на постоянное число, а выбор основания равносилен вы- бору определенной единицы измерения энтропии. Если за основа- ние выбрано число 10, то говорят о «десятичных единицах» энтро- пии. если 2— о «двоичных единицах». На практике удобнее всего пользоваться логарифмами при основании 2 н измерять энтропию а двоичных единицах; это хорошо согласуется с применяемой в эле- ктронных цифровых вычислительных машинах двоичной системой счисления. В дальнейшем мы будем везде, если не оговорено противное, под символом log понимать двоичный логарифм. *) Знак минус перед суммой лоставлев для того, чтобы энтропия была положительной (числа Pi меньше единицы и нх логарифмы отрицательны).
472 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ 1гл. 18 В приложении (табл. 6) даны двоичные логарифмы целых чисел от 1 до 100!). Легко убедиться, что при выборе 2 в качестве основания лога- рифмов за единицу измерения энтропии принимается энтропия про- стейшей системы X, которая имеет два равновозможных состояния; Pi 1 2 2 Действительно, по формуле (18.2.2) имеем: W(X) = -(llog-| + |log|)=l. Определенная таким образом единица энтропии называется «дво- ичной единицей» и иногда обозначается bit (от английского «binary digit»—двоичный знак). Это энтропия одного разряда двоичного числа, если он с одинаковой вероятностью может быть нулем или единицей. Измерим в двоичных единицах энтропию системы X, которая имеет п равновероятных состояний: JCl JCt JCa Имеем: Н (Л) = - п log 4- = — 1ОК1 + log п ИЛИ Н (X) = log п. (18.2.3) т. е. энтропия системы с равновозможными состояниями равна логарифму числа состояний. Например, для системы с восемью состояниями Н{X} — log8 =3. Докажем, что в случае, когда состояние системы в точности из- вестно заранее, ее энтропия равна нулю. Действительно, в этом слу- чае все вероятности рх. р2, .... рп в формуле (18.2.2) обращаются *) Логарифмы дробей находятся вычитанием, например: log 0,13 = log 13— log 100. Для нахождения логарифмов чисел с тремя значащими цифрами можно поль- зоваться линейной интерполяцией.
ЭНТРОПИЯ 473 ТВ-21 В пуль, кроме одной — например рь, которая равна единице. Член рр1о£рк обращается в нуль, так как log 1=0. Остальные члены тоже обращаются в нуль, так как lim plog р = 0. Докажем, что энтропия системы с конечным множеством состоя- ний достигает максимума, когда все состояния равновероятны. Для этого рассмотрим энтропию системы (18.2.21 как функцию вероят- ностей pv Рп и найдем условный экстремум этой функции прн условии: w = (18.2.4) Пользуясь методом неопределенных множителей Лагранжа, будем искать экстремум функции: /= = —Sp.iogp.+Xipp (18.2.5) /=1 1=1 Дифференцируя (18.2.5) по р^.....рП и приравнивая производные нулю, получим систему уравнений: l°g₽/ + loge4->. = 0 (1=1.......л) или loepi = ~ X — log г (Z=l........n). (18.2.6) откуда видно, что экстремум (в данном случае максимум) достигается при равных между собой значениях р(. Из условия (18.2.4) видно, что при этом р, = р,= ... =рп=±, (18.2.7) а максимальная энтропия системы равна: ^Лпах. (^0 == log (18.2.8) т. е. максимальное значение энтропии системы с конечным числом состояний равно логарифму числа состояний и достигается, когда все состояния равновероятны. Вычисление энтропии по формуле (18.2.2) можно несколько упро- стить, если ввести в рассмотрение специальную функцию: ^(Р) = —plogp (18.2.9) гл. логарифм берется по основанию 2. Формула (18.2.2) принимает вид: /7(Л)= S !!(₽,). (18.2.10)
474 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 1В Функция ij(p) затабулирована; в приложении (табл. 7) приведены ее значения для р от 0 до 1 через 0,01. Пример 1. Определить энтропию физической системы, состоящей из двух самолетов (истребителя и бомбардировщика), участвующих в воздушном бою. В результате боя система может оказаться в одном из четырех возможных состояний: 1) оба самолета не сбиты; 2) истребитель сбит, бомбардировщик не сбит; 3) истребитель не сбит, бомбардировщик сбит; 4) оба самолета сбиты. Вероятности этих состояний равны соответственно 0,2; 0,3; 0,4 и 0,1. Решение. Записываем условия в виде таблицы: Xl Xl x. x. x. Pl | 0.2 0,3 0.4 ... По формуле (18.2.10) имеем: Н (X) = 1 (0,2) 4- ! (0.3) 4-1 (0.4) 4- rj (0.1). Пользуясь таблицей 7 приложения, находим Н (X) = 0,4644 4- 0.52114- 0,5288 4- 0.3322 ж 1.85 (дв. ед.). Пример 2. Определить энтропию системы, состояние которой описы- вается прерывной случайной величиной X с рядом распределения Xi Xl хя x3 X. *8 Pi 0,01 0,01 0.01 0.01 0,96 Решение. ( Н (X) = 4, (0.01) 4- Т, (0,96) к 0,322 (дв. ед). Пример 3. Определить максимально возможную энтропию системм, Состоящей нз трех элементов, каждый нз которых может быть в четырех возможных состояниях. Решение. Общее число возможных состояний системы равно zz=4-4-4—64, Максимально возможная энтропия системы равна log 64 = 6 (дв. ед.). Пример 4. Определить максимально возможную энтропию сообщения, состоящего из пяти букв, причем общее число букв в алфавите равно 32. Решение. Число возможных состояний системы п =326. Максимально возможная энтропия равна 5 log 32 = 25 (дв. ед). Формула (18.2.2) (или равносильная ей (18.2.10)) служит для непосредственного вычисления энтропии. Однако при выполнении преобразований часто более удобной оказывается другая форма ваписи энтропии, а именно, представление ее в виде математического ожи- дания: Н(Л)==Л1[— logPWb (18.2.11)
18-3] ЭНТРОПИЯ СЛОЖНОЙ СИСТЕМЫ 475 где logP(X)— логарифм вероятности любого (случайного) состояния системы, рассматриваемый как случайная величина. Когда система X принимает состояния хр .... хп, случайная величина log Р (Д’) принимает значения: logPp logp2, ..logp„. (18.2.12) Среднее значение (математическое ожидание) случайной величины — log Р (Д’) и есть, как нетрудно убедиться, энтропия системы X. Для ее получения значения (18,2.12) ос ре дняются с «весами», равными соответствующим вероятностям pv р2, .... рп. ( Формулы, подобные (18.2.11). где энтропия представляется в виде математического ожидания, позволяют упрощать преобразования, свя- занные с энтропией, сводя нх к применению известных теорем о математических ожиданиях. 18.3. Энтропия сложной системы. Теорема сложения энтропий На практике часто приходится определять энтропию для сложной системы, полученной объединением двух или более простых систем. Под объединением двух систем X и Y с возможными состояниями а,. ...» хп\ >1...ут понимается сложная система (X, К), состоя- ния которой (хр уу) Представляют собой все возможные комбинации состояний Хр у7 систем X и Y. Очевидно, число возможных состояний системы (Д’, К) равно пХ т. Обозначим P(j вероятность того, что система (Д’, Y) будет в состоянии (хр у7): ₽/; = -Р((Л'~л:,)(К~уу)). (18.3.1) Вероятности PtJ удобно расположить в виде таблицы (матрицы)
476 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 Найдем энтропию сложной системы. По определению она равна сумме произведений вероятностей всех возможных ее состояний на их логарифмы с обратным знакой: Н(Х. К) = — 2 2 (18.3.2) »=1/=1 или. в других обозначениях: H(-V. Г)=2 2ч(Л> (18.3.2') i=lJ=1 Энтропию сложной системы, как и энтропию простой, тоже можно записать в форме математического ожидания: Н(Х. Y) = M[— log PPG Г)]. (18.3.3) где log Р (АГ, К)—логарифм вероятности состояния системы, рас- сматриваемый как случайная величина (функция состояния). Предположим, что системы X и У независимы, т. е. принимают свои состояния независимо одна от другой, и вычислим в этом пред- положении энтропию сложной системы. По теореме умножения вероятностей для независимых событий Р(Х, Y)—P(X)P(Y), откуда log Р(X, F) = logP(A') + logP(K). Подставляя в (18.3.3), получим Н(Х, У)^=М]— logP(X) — logР(У)1. или Н(Х. Y) = H(X)~YH(Y). (18.3.4) т. е. при объединении независимых систем их энтропии скла- дываются. Доказанное положение называется теоремой сложения энтропий. Теорема сложения энтропий может быть легко обобщена на про- извольное число независимых систем: Н(Х.. X,......XJ = 2 ЩХ,). (18.3.5) k-l Если объединяемые системы зависимы, простое сложение энтропий уже неприменимо. В этом случае энтропия сложной системы меньше, чем сумма энтропий ее составных частей. Чтобы найти энтропию системы, составленной из зависимых элементов, нужно ввести новое понятие условной энтропии.
УСЛОВНАЯ ЭНТРОПИЯ ОБЪЕДИНЕНИЕ ЗАВИСИМЫХ СИСТЕМ 477 18.4. Условная энтропия. Объединение зависимых систем Пусть имеются две системы X и Y, в общем случае зависимые. Предположим, что система X приняла состояние х{. Обозначим Р(уу|хг) условную вероятность того, что система Y примет состояние уу при условии, что система X находится в состоянии х{: Р^Х^Р^-уДХ-хЦ. (18.4.1) Определим теперь условную энтропию системы Y при условии, что система X находится в состоянии xt. Обозначим ее Н (Y\xt). По общему определению, имеем: H(Y I = - 2 Р (У) IX,) log Р (yj I xt) (18.4.2) ИЛИ Н(Г|х()=2 TjfPfyJx,)). (18.4.2') Формулу (18.4.2) можно также записать в форме математического ожидания: Н(Г|*/) = М1/[ —1ойР(У|х()1. (18.4.3) где знаком обозначено условное математическое ожидание вели- чины. стоящей в скобках, при условии X — xt. Условная энтропия зависит от того, какое состояние xt приняла система Х\ для одних состояний она будет больше, для других — меньше. Определим среднюю, или полную, энтропию системы Y с учетом того, что система может принимать разные состояния. Для этого нужно каждую условную энтропию (18.4.2) умножить на вероятность соответствующего состояния р{ и все такие произведе- ния сложить. Обозначим полную условную энтропию //(У|7С): «(К|А-)=2р,//(Е|^) (18.4.4) или. пользуясь формулой (18.4.2), Н(Г|Х) = —£ Р, Д р (VyWIog/Ty/x,). Внося pt под знак второй суммы, получим: Н(Г|Х) = -Д 2 PiP(yj\xi) iogP(y,|x,) (18.4.5) ИЛИ Н(1’|Х) = 2 Д РР1(Р(У;|Х,)). (18.4.5') Но по теореме умножения вероятностей pt Р (У]\х,) = Ptl.
478 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ |ГЛ. 18 следовательно, m H(y|X) = —£ S Pi,logP(y)\xi)- (18.4.6) Выражению ожидания: (18.4.6) тоже можно придать форму математического Н (Г | X) = М [— logP (К | (18.4.7) Величина W(E|X’) характеризует степень неопределенности си- стемы Y, остающуюся после того, как состояние системы X пол- ностью определилось. Будем называть ее полной условной энтро- пией системы Y относительно X. Пример 1. Имеются две системы X и Y, объединяемые в одну (X, К); вероятности состояний системы (X, Y) заданы таблицей X! *• Ха лг, ч * 0.1 0,2 0 0,3 ° 0.3 0 0.3 * ° 0,2 0,2 0,4 * од 0,7 0.2 Определить полные условные энтропии //(ИХ) и H(Xt Y). Решение. Сктадыная вероятности P/у по столбцам, получим вероят- ности р = РсХ^-х у. р} = 0,1; рг = 0,7; р3 =. 0.2. Записываем их в нижней, добавочной строке таблицы. Аналогично, склады- вая Рц по строкам, найдем: г, =0,3; гг-од г, = 0,4 и запишем справа дополнительным столбцом. Деля на р., получим таб- лицу условных вероятностей Р (yj х,у. ч\ *1 Ха Ха У1 1 0,2 0,7 0 У2 0 0,3 0,7 0 Уя 0 0,2 0,7 1 1B4I УСЛОВНАЯ ЭНТРОПИЯ. ОБЪЕДИНЕНИЕ ЗАВИСИМЫХ СИСТЕМ 479 По формуле (18.4.5') находим /7 (У | X). Так как условные энтропии при X~>xi и Л'~Л8 равны нулю, то Пользуясь таблицей 7 приложения, находим H(Y\X)x 1,09 (дв. ед.). Аналогично определим //(Х|У). Из формулы (18.4.5'), меняя местами X и Y, получим «(Х|Г)=2г/Ч(Р(л-,|Ъ)). Составим таблицу условных вероятностей P(*Jyp. Деля P{J на г? получим: У/ Х 1 *1 1 Ха У1 01 03 0,2 0,3 0 я 0 1 0 Уз 0 0,2 0,4 0.2 04 Отсюда н(Х| Г) - о,з « 0,68 (дв. ед.). Пользуясь понятием условной энтропии, можно определить энтро- пию объединенной системы через энтропию ее составных частей. Докажем следующую теорему: Если две системы X и У объединяется в одну, то энтро- пия объединенной системы равна энтропии одной из ее со- ставных частей пл ис условная энтропия второй части отно- сительно первой'. Н(Х, Г)=Н(Х)-ЬН(Г|Л’).. (18.4.8) Для доказательства запишем Н(Л*. >') в форме мз!смзл.чссксчо ожи- дания (18.3.3): И (Л'. Г)^Л1|-1о-Р(Л, По теореме умножения вероятностей Р(Л. Г)=Р(Л)Р(У| \1
480 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ 1ГЛ. 18 следовательно, logP(X. F)=slogP(A’)4-logP(H^). откуда Н (X, К) = М [— log Р (X)] + М [— log Р (У | X)] или, по формулам (18,2.И), (18.3.3) Н(Х. К) = Н(Х)-{-Н(Г|Х), что и требовалось доказать. В частном случае, когда системы X и У независимы. Н (У| Х)=х = Н(У), и мы получаем уже доказанную в предыдущем п' теорему сложения энтропий: Н(Х. У) = Н(Х)-|_Н(К). В общем случае Н(Х. У)<Н(Х) + Н(У). (18.4.9) Соотношение (18.4.9) следует из того, что полная условная энтро- пия 77(FjX) не может презосходить безусловной: Н(Г|Х)<//(Г). (18.4 10) Неравенство (18.4.10) будет доказано в п° 18.6. Интуитивно оно представляется довольно очевидным: ясно, что степень неопределен- ности системы не может увеличиться оттого, что состояние какой-то другой системы стало известным. Из соотношения (18.4.9) следует, что энтропия сложной системы достигает максимума в крайнем случае, когда ее составные части независимы. Рассмотрим другой крайний случай, когда состояние одной из систем (например X) полностью определяет собой состояние дру- гой (К). В этом случае Н (У| Х) = 0. и формула (18.4.7) дает //(X. Г) = Н(Х). Если состояние каждой из систем А*. У однозначно определяет состояние другой (или, как говорят, системы X и У эквивалентны), то Н(Х, К) = Н(Х)==Н(Г). Теорему об энтропии сложной системы легко можно распростра- нить на любое число объединяемых систем: Н(ХРХ2.......Х,) = Н(Х1) + Н(Х2|Х1)4-/У(Х3|Х1. х2)+ ... ... +Н(Х5|Хр Х2........Х,_,). (18.4.1!) где энтропия каждой последующей системы вычисляется при условии, что состояние всех предыдущих известно.
ЭНТРОПИЯ И ИНФОРМАЦИЯ 481 18.51 18.6. Энтропия и информация В предыдущих п°п° была определена энтропия как мера неопре- деленное гп состояния некоторой физической системы. Очевидно, что в результате получения сведений неопределенность системы может быть уменьшена. Чем больше объем полученных сведений, чем они более содержательны, тем больше будет информация о системе, тем менее неопределенным будет ее состояние. Естественно поэтому коли- чество информации измерять уменьшением энтропии той си- стемы, для уточнения состояния которой предназначены сведения. Рассмотрим некоторую систему X, над которой производится наблюдение, и оценим информацию, получаемую в результате того, что состояние системы X становится полностью известным. До полу- чения сведений (априори) энтропия системы была Н (X); после полу- чения сведений состояние системы полностью определилось, т. е. энтропия стала равной нулю. Обозначим /х информацию, получаемую в результате выяснения состояния системы X. Она равна уменьше- нию энтропии: /А = Н(Л-)-0 или /х = Н(Х). (18.5.1) т. е. количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно jump опии этой системы. Представим формулу (18,5.1) в виде: = — S Pi log Pi- (18.5.2) где Pl=P(X — xt). Формула (18.5.2) означает, что информация 1Х есть осреднениое по всем состояниям системы значение логарифма вероятности состоя- ния с обратным знаком. Действительно, для получения 1Х каждое значение log pt (лога- рифм вероятности Z-ro состояния) со знаком минус множится па вероятность этого состояния и все такие произведения складываются. Естественно каждое отдельное слагаемое — log pt рассматривать как частную информацию, получаемую от отдельного сообщения, состоящего в том, что система X находится в состоянии x-t. Обо- значим эту информацию /x^-log^. (18.5.3) Тогда информация 1Х представится как средняя (или полная) информация, получаемая от всех возможных отдельных сообщений 16 Теория вероятностей
482 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ 18 с учетом их вероятностей. Формула (18.5.2) может быть переписана в форме математического ожидания: /А = М[—logP(A’)!, (18.5.4) где буквой X обозначено любое (случайное) состояние системы X. Так как все числа рк не больше единицы, то как частная инфор- мация 1Х, так и полная 1Х не могут быть отрицательными. Если все возможные состояния системы априори одинаково ве- роятны (р1 = р2 = ... = pn = ^-j, то» естественно, частная инфор- мация 1Х от каждого отдельного сообщения /Х| = — log р — log п равна средней (полной) информации /л =—nllog l = 10gB. В случае, когда состояния системы обладают различными вероят- ностями, информации от разных сообщений неодинаковы: наибольшую информацию несут сообщения о тех событиях, которые априори были наименее вероятны. Например, сообщение о том, что 31 декабря в г. Москве выпал снег, несет гораздо меньше информации, чем аналогичное по содержанию сообщение, что 31 июля в г. Москве выпал снег. Пример 1. На шахматной доске в одной из клеток произвольным об- разом поставлена фигура. Априори все положения фигуры на доске одинаково вероятны. Определить информацию, получаемую от сообщения, в какой именно клетке находится фигура- Решение. Энтропия системы X с п равновероятными состояниями равна log п; в данном случае /*-= Н (X) = log 64 6 (дв. ед.), т. е. сообщение содержит б двоичных единиц информации. Так как все со- стояния системы равновероятны, то ту же информацию несет и любое кон- кретное сообщение типа: фигура находится в квадрате е2. Пример 2. В условиях примера 1 определить частную информацию от сообщения, что фигура находится в одной из угловых клеток доски. Решение. Априорная вероятность состояния, о котором сообщается, равна ^“64 “Тб* Частная информация равна / — — log — -> 4 (дв. ед ). Пример X Определить частную информацию. содержащуюся в сооб- щении впервые встреченного лица Л: ^сегодня ыем День рождеььп-.
18.5] ЭНТРОПИЯ И ИНФОРМАЦИЯ 483 Решение. Априори все дни в году с одинаковой вероятностью могут быть днями рождения лица Л Вероятность полученного сообщения Частная информация от данного сообщения / = —log » 8,51 (дв. ед.). Пример 4. В условиях примера 3 определить полную информацию от сообщения, выясняющего, является ли сегодняшний день днем рождения впервые встреченного лица Л Решение. Система, состояние которой выясняется, имеет два возмож- ных состояния: — день рождения и хл — ие день рождения. Вероятности этих состояний Pt = -5L-; р2 = St. ООО 000 Полная информация равна: /х = М(Х)-Цзйз)+’1(|^)Я! 0.063 (дв. ед.). Пример 5. По цели может быть произведено п независимых выстре- лов; вероятность поражения цели пр» каждом выстреле равиа р. После А-го выстрела (1 < k < п) производится разведка, сообщающая, поражена или ие поражена цель; если она поражена, стрельба по лей прекращается. Опреде- лить k нз того условия, чтобы количество информации, доставляемое развед- кой, было максимально ’). Решение. Рассмотрим физическую систему — цель после £-го вы- стрела. Возможные состояния системы Хд будут jfj — цель поражена; ха — цель не поражена. Вероятности состояний даны в таблице: *1 ха А 1(1—Г)* (1- рУ Очевидно, информация, доставляемая выяснением состояния системы Х& будет максимальна, когда оба состояния и х2 равновероятны: 1-(1_ />)* = (!-/>)*, откуда k^_ -1 lQg(l— р) ’ где log -- знак двоичного логарифма. Например, прн р = 0,2 получаем (округляя до ближайшего целого числа) *= 0,3219 ~3' ') Пример заимствован у И. Я Дннера.
484 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ |ГЛ. 18’ Если информация выражена в двоичных единицах, то ей можно дать довольно наглядное истолкование, а именно: измеряя информа- цию в двоичных единицах, мы условно характеризуем ее числом ответов «да» или «нет», с помощью которых можно приобрести ту же информацию. Действительно, рассмотрим систему с двумя со- стояниями: хя -П Pi Pl Pi Чтобы выяснить состояние этой системы, достаточно задать один вопрос, например: находится ли система в состоянии jq? Ответ «да» или «нет» на этот вопрос доставляет некоторую информацию, кото- рая достигает своего максимального значения 1, когда оба состояния априори равновероятны: р,—р, ==у« Таким образом, максимальная информация, даваемая ответом «да» или «нет», равна одной двоич- ной единице. Если информация от какого-то сообщения равна п двоичным еди- ницам, то она равносильна информации, даваемой и ответами «да» или «нет» па вопросы, поставленные так. что «да» и «нет» одина- ково вероятны. В некоторых простейших случаях для выяснения содержания сооб- щения действительно удается поставить несколько вопросов так. чтобы ответы «да» и «нет» на эти вопросы были равновероятны. В таких случаях полученная информация фактически измеряется числом таких вопросов. Если же поставить вопросы точно таким образом не удастся, можно утверждать только, что минимальное число вопросов, необхо- димое для выяснения содержания данного сообщения, не меньше, чем информация, заключенная в сообщении. Чтобы число вопросов было минимальным, нужно формулировать их так, чтобы вероятности отве- тов «да» и «нет» были как можно ближе к у. Пример 6. Некто задумал любое целое число X от единицы до восьми: а нам предлагается угадать его, поставив минимальное число вопросов, на каждый из которых дается ответ «да» или «нет». Решение. Определяем информацию, заключенную в сообщении, какое число задумано. Априори все значения X от 1 до 8 одинаково вероятны: Pi — Pi = • • • — Рв — g . и формула (18.5.2) дает /х = log 8 = 3. Минимальное число вопросов, которые нужно поставить для выяснения задуманного числа, не меньше трех.
IS 5] ЭНТРОПИЯ И ИНФОРМАЦИЯ 485 В данном случае можно, действительно! обойтись тремя вопросами, если сформулировать их так, чтобы вероятности ответов «да» и «нет» были равны. Пусть, например, задумано число «пять», мы этого ие знаем и задаем вопросы: Вопрос I. Число X меньше пяти? Ответ. Нет. (Вывод: X — одно из чисел 5, 6, 7, 8.) Вопрос 2. Число X меньше семи? Ответ. Да. (Вывод: X—одно из чисел 5, 6.) Вопрос 3. Число X меньше шести? Ответ. Да. (Вывод: число X равно пяти.) Легко убедиться, что тремя такими (или аналогичными) вопросами можно установить любое задуманное число от 1 до 8 ') Таким образом, мы научились измерять информацию о системе X, содержащуюся как в отдельных сообщениях о ее состоянии, так и в самом факте выяснения состояния. При этом предполагалось, что наблюдение ведется непосредственно за самой системой X. На прак- тике это часто бывает не так: может оказаться, что система X непо- средственно недоступна для наблюдения, и выясняется состояние не самой системы X, а некоторой другой системы Y. связанной с нею. Например, вместо непосредственного наблюдения за воздушными целями на посту управления средствами противовоздушной обороны ведется наблюдение за планшетом или экраном отображения воздуш- ной обстановки, на котором цели изображены условными значками. Вместо непосредственного наблюдения за космическим кораблем ведется наблюдение за системой сигналов, передаваемых его аппара- турой. Вместо текста X отправленной телеграммы получатель наблю- дает текст Y принятой который ие всегда совпадает с X. Различия между непосредственно интересующей нас системой X и поддающейся непосредственному наблюдению Y вообще могут быть двух типов: I) Различия за счет того, что некоторые состояния системы X не находят отражения в системе Y, которая «беднее подробностями», чем система X. 2) Различия за счет ошибок: неточностей измерения параметров системы X и ошибок при передаче сообщений. Примером различий первого типа могут служить различия, воз- никающие при округлении численных данных и вообще при грубом описании свойств системы Д’ отображающей ее системой Y. При- мерами различий второго типа могут быть искажения сигналов, возникающие за счет помех (шумов) в канааах связи, за счет ) Читателю рекомендуется самостоятельно поставить шесть вопросов, н'.ооходимых для выяснения положения фигуры на шахматной доске (см. при- мер 1), и определить число вопросов, достаточное для выяснения задуманной карты в коло »с из 38 карт.
486 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ (ГЛ 18 неисправностей передающей аппаратуры, ва счет рассеянности людей, участвующих в передаче информации, н т. д. В случае, когда интересующая нас система X и наблюдаемая У различны, возникает вопрос: какое количество информации о си- стеме X дает наблюдение системы У? Естественно определить эту информацию как уменьшение энтро- пии системы X в результате получения сведений о состоянии системы У: Л->х = //(А’) —H(A’IK). (18.5.5) Действительно, до получения сведений о системе У энтропия системы X была Н(Х); после получения сведений «остаточная» эн- тропия стала Н(Х[У); уничтоженная сведениями энтропия и есть информация /у->х- Величину (18.5.5) мы будем называть полной (или средней) информацией о системе X, содержащейся в системе У. Докажем, что ^У->Х~ Л<->У> т, е. из двух систем каждая содержит относительно другой одну и ту же полную информацию. Для доказательства запишем энтропию системы (X, У) согласно теореме на стр. 479, двумя равносильными формулами: Н(Х, У) = Н(Х) + Н(У\Х), Н(Х. У)—Н (У) + Н (Х\У). откуда Н(Х) + Н(У\Х) = ЩУ)±ЩХ\У). Н(Х) — Н(Х\У) = Н(У) — Н(У\Х), или /у-»х — 6с->у. (18.5.6) что и требовалось доказать. Введем обозначение: lY+->x=:h'-*X"Ix-9-Y (18.5.7) и будем называть информацию /у^х полной взаимной информа- цией. содержащейся в системах X и У. Посмотрим, во что обращается полная взаимная информация в крайних случаях полной независимости и полной зависимости систем. Если X и У независимы, то Н (У\Х)=Н (У), и /у«~>х = О, (18-5.8) т. е. полная взаимная информация, содержащаяся в независимых си- стемах, равна нулю. Это вполне естественно, так как нельзя полу- чить сведений о системе, наблюдая вместо нее другую, никак с нею не связанную.
18.51 ЭНТРОПИЯ И ИНФОРМАЦИЯ 487 Рассмотрим другой крайний случай, когда состояние системы X полностью определяет состояние системы Y и наоборот (системы эквивалентны). Тогда H(X)—H(Y): Н (X\Y) = Н (Y\X) = Q 1у+-*Х ±=/х=/у = Н (Х)~ H(Y), (18.5.9) т. е. получается случай, уже рассмотренный нами выше (формула (18.5.2)), когда наблюдается непосредственно интересующая нас си- стема X (или, что то же, эквивалентная ей Y). Рассмотрим случай, когда между системами X и Y имеется жест- кая зависимость, ио односторонняя: состояние одной из систем полностью определяет состояние другой, ио не наоборот. Условимся называть ту систему, состояние которой полностью определяется состоянием другой, «подчиненной системой». По состоянию подчи- ненной системы вообще нельзя однозначно определить состояние другой. Например, если система X представляет собой полный текст сообщения, составленного из ряда букв, a Y — его сокращенный текст, в котором для сокращения пропущены все гласные буквы, то. читая в сообщении Y слово «стл», нельзя в точности быть уве- ренным, означает оно «стол», «стул», «стал» или «устал». Очевидно, энтропия подчиненной системы меньше, чем энтропия той системы, которой она подчинена. Определим полную взаимную информацию, содержащуюся в си- стемах. из которых одна является подчиненной. Пусть нз двух систем X и Y подчиненной является X. Тогда Н(*|Г) = 0. и 1у^х = Н(Х), (18.5.10) т. е. полная взаимная информация, содержащаяся в системах, из которых одна является подчиненной, равна энтропии под- чиненной системы. Выведем выражение для информации ly^-^x не через условную энтропию, а непосредственно через энтропию объединенной системы Н(Х, Y) и энтропии ее составных частей Н(Х) и H(F). Пользуясь теоремой об энтропии объединенной системы (стр. 479), получим: Н(Х|Е) = Н(Х, Г) —Н(Г). (18.5.11) Подставляя это выражение в формулу (18.5.5). получим: /у<-ч^Н(*) + Н0Э —Н(Л. Y), (18.5.12) т. е. полная взаимная информация, содержащаяся 8 двух си- стемах, равна сумме энтропий составляющих систем минус энтропия объединенной системы. На основе полученных зависимостей легко вывести общее выра- жение для полной взаимной информации в виде математического
488 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ ЩИ. 18 ожидания. Подставляя в (18.5.12) выражения для энтропий: Н (X) = М [ - log Р (Л)1. Н (К) = М [—log Р (И1. Н(Х. К) = Л1[— logP(X, Г)], получим /г<-► к = м I— log Р (X) — log Р (У) + log Р(X. О1 или /г^х = Л1[1оер^^Ы]. (18.5.13) Для непосредственного вычисления полной взаимной информации формулу (18.5.13) удобно записать в виде 7гч-->х==У У Л/Юй (18.5.14) Р‘ ! где Л7 = Р((Л-~х,)(Г~ур). Pi = р (X ~ xj; r,=^P(.Y Пример 1. Найти полную взаимную информацию, содержащуюся в си- стемах X и Г в условиях примера I п° 18.4. Решение. Из примера 1 п° 18.4 с помощью таблицы 7 приложения получим: Н (Л. Y) = 2,25; Н (X) = 1,18. Н (Г) = 1,57; lY^x=H(X)+H (Y) — H(X. Г) = 0,48 (дв. ед.). Пример 2. Физическая система X может находиться в одном из четы- рех состояний л1: .v21 ,г3, л*,; соответствующие вероятности даны в таблице х. Л| лга X* х4 Pl 0,1 0,2 0,4 0,3 При наблюдении за системой X состояния jq и л2 неразличимы; состояния -г3 и также неразличимы. Сообщение о системе X указывает, находится ли она в одном из состоянии хь х2 или же б одном из состояний xs, х4. Полу- чено сообщение, указывающее, в каком из состояний: лг(, Л2 или jvj, х4-—на- ходится система X. Определить информацию, заключенную б этом сообщении. Решение. В данном примере мы наблюдаем 'ие саму систему X, а подчиненную ей систему К, которая принимает состояние у(, когда система X оказывается в одном из состояний х(, лг2, и состояние уа. когда X оказы- вается в одном из состоянии xs, xt. Имеем: г, =Р(Г~у,) = 0.1 4-0,2 = 0,3; га = Р (У ~ у а) = 0.3 4- 0,4 = 0,7. Находим взаимную информацию, т. е. энтропию подчиненной системы. /r^x= — '•Jog'i— г Jog г2 = 1(0,3) 4-(0,7) и 0,88 (дв. ед.).
ЧАСТНАЯ ИНФОРМАЦИЯ О СИСТЕМЕ 489 18-6] 18.6. Частная информация о системе, содержащаяся в сообщении о событии. Частная информация о событии, содержащаяся в сообщении о другом событии В предыдущем iT мы рассмотрели полную (или среднюю) инфор- мацию о системе X, содержащуюся в сообщении о том, в каком состоянии находится система Y. В ряде случаев представляет интерес оценить частную информацию о системе X, содержащуюся в от- дельном сообщении, указывающем, что система Y находится в кон- кретном состоянии yj. Обозначим эту частную информацию 1У^Х‘ Заметим, что полная (или. иначе, средняя) информация 1у-*х должиа представлять собой математическое ожидание частной информации для всех возможных состояний, о которых может быть передано сообщение: /г-»л = 2(18.6.1) Придадим формуле (18.5.14), по которой вычисляется /у_>х (она же такой вид, как у формулы (18.6.1): '- = V V ,os > = V 2 _ i=l/=1 1 f 1=1у=1 1 = 2 О (*,!>>,)log Р(*'|У'). (18.6.2) /=1 1=1 z откуда, сравнивая с формулой (18.6.1), получим выражение частной информации: (18-6-3) 1=1 . 1 Выражение (18.6.3) и примем за определение частной информации. Проанализируем структуру этого выражения. Оно представляет собой не что иное, как осреднешюе по всем состояниям xt значение величины log---(18.6.4) Осреднение происходит с учетом различных вероятностей значений х2........хп. Так как система Y уже приняла состояние у^. то при осреднении значения (18.6.4) множатся не на вероятности pt состояний х(. а на условные вероятности P(xl\yJ). Таким образом, выражение для частной информации можно запи- сать в виде условного математического ожидания; ЛУ-Л = Mtj [log • (18.6.5)
(ГЛ. 1В полная, (18.6.6) (18.6.7) 490 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ Докажем, что частная информация так же как и не может быть отрицательна. Действительно, обозначим: ^(x/l У;) 7Г~-Ч‘/ и рассмотрим выражение . Р (*/1 У/) . log—7^- = 1о&^г Легко убедиться (см. рис. 18.6.1), что при любом х>0 In х -<х— 1. Полагая в (18.6.7) x = получим: — in 9,-/О-—i; 9iJ 4,J Qi} откуда In Qii 1 I 1 \ log?</ = TnT ^1п2 V — ft;/' На основании (18.6.3) и (18.6.6) имеем: Лу-»Х = У Р(Х. | Уу) log?,у > ~ <1ц ) = Тп2 — P(jJ|y,) ] = Но jjP(xj>-p=2ipl = i. и выражение в фигурной скобке равно нулю; следовательно Таким образом, мы доказали, что частная информация о си- стеме X, заключенная в сообщении о любом состоянии yj си- стемы У не может быть отрицательной. Отсюда следует, что неотрицательна и полная взаимная информация /у*-+х (как матема- тическое ожидание неотрицательной ^случайной величины): /г<->х>0. (18.6.9) Из формулы (18.5.6) для информации: /у+-*х — Н(Х)— следует, что (18.6.8) (18.6.10) Н(А’) —Н(А’|Г)>0 Н(Х\У)<Н(Х), или
18б| ЧАСТНАЯ ИНФОРМАЦИЯ О СИСТЕМЕ 491 т- е. полная условная энтропия системы не превосходит ее безусловной энтропии1). Таким образом, доказано положение, принятое нами на веру в п°18.3. Для непосредственного вычисления частной информации фор- мулу (18.6.3) удобно несколько преобразовать, введя в нее вместо условных вероятностей P(xjy/) безусловные. Действительно, и формула (18.6.3) принимает вид 1) Заметим, что это справедливо только б отношении полной условной энтропии; что касается частной условной энтропии /У(Х|ул то она для от- дельных уу может быть как больше, так и меньше /7(Х).
492 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ (ГЛ. 1В Решение. По формуле (18.6.11) имеем: , 0,1 0,1 , 0,2 0,2 0,3 iofi 0,4-0.3 *" 0.3 108 0,6 - 0,3 • По таблице 6 приложения находим og 0 ° ' '0 3 = leg 10 - log 12 я - 0.263, log = log 20- log 18 «0,152, /у ^х«-0,333.0.263 4-0.667-0.152«0.0U (дв. ед.). Мы определили частную информацию о системе X, содержащуюся в конкретном событии Y— yf, т. е. в сообщении «система Y нахо- дится в состоянии Уу». Возникает естественный вопрос: а нельзя ли пойти еще дальше и определить частную информацию о событии X ~ х1г содержащуюся в событии Y — у,? Оказывается, это можно сделать, только получаемая таким образом информация «от события к событию» будет обладать несколько неожиданными свойствами: она может быть как положительной, так и отрицательной. Исходя из структуры формулы (18.6.3), естественно определить информацию «от события к событию» следующим образом: Р(х,| У/) = (18.6.12) т. е. частная информация о событии, получаемая в резуль- тате сообщения о другом событии, равна логарифму отно- шения вероятности первого события после сообщения к его ме вероятности до сообщения (априори). Из формулы (18.6.12) видно. Что если вероятность события X — xt в результате сообщения Y—Уу увеличивается, т. е. Pi- то информация положительна; в противном случае она отри- -------- г» ---------- ------ ------------V. полностью е. когда эти цательиа. В частности, когда появление события Y исключает возможность появления события X —> xt события несовместны), то = — оо. Информацию /3 можно записать в виде: , Pl) - — log----------— = log-----— , Pl b Piri. (18.6.13) из чего следует, что оиа симметрична относительно и уу, и !у^хе = (18.6.14)
18.7] ЭНТРОПИЯ ДЛЯ СИСТЕМ С НЕПРЕРЫВН. МНОЖЕСТВОМ состоян. 493 Таким образом, нами введены три вида информации: 1) полная информация о системе X. содержащаяся в системе К: 1у+Х = /у<~>х', 2) частная информация о системе X, содержащаяся в событии (сообщении) Y—yf: hl+X* 3) частная информация о событии X xt. содержащаяся в со- бытии (сообщении) Yr—у/. GГ*х1 ~ }^ХС Первые два типа информации неотрицательны; последняя может быть как положительной, так и отрицательной. Пример 2. В урне 3 белых и 4 черных шара. Из урны вынуто 4 шара, три нз них оказались черными, а один — белым. Определить информацию заключенную в наблюденном событии В по отношению к событию А — сле- дующий вынутый из урны шар будет черным. Решение. 'вч-л = 'Ч? log « -0.779 (дв. ед.). 18.7. Энтропия и информация для систем с непрерывным множеством состояний До сих пор мы рассматривали физические системы, различные состояния которых xv х2.......хп можно было все перечислить; вероятности этих состояний были какие-то отличные от нуля вели- чины р2........рп- Такие системы аналогичны прерывным (диск- ретным) случайным величинам, принимающим значения хр х2......................ха с вероятностями pv р2. .. . рп- На практике часто встречаются физические системы другого типа, аналогичные непрерывным случай- ным величинам. Состояния таких систем нельзя перенумеровать: они непрерывно переходят одно в другое, причем каждое отдельное со- стояние имеет вероятность, равную нулю, а распределение вероят- ностей характеризуется некоторой плотностью. Такие системы, по аналогии с непрерывными случайными величинами, мы будем на- зывать «непрерывными», в отличие от ранее рассмотренных, кото- рые мы будем называть «дискретными». Наиболее простой пример непрерывной системы—это система, состояние которой описывается одной непрерывной случайной величиной X с плотностью распре- деления f (х). В более сложных случаях состояние системы описы- вается несколькими случайными величинами Xv Х2......Xs с плот- ностью распределения /(хР х2........................xs). Тогда ее можно рассматри- вать как объединение (Хр Х2.........................Х5) простых систем Хр Х2.Xt. Рассмотрим простую систему X. определяемую одной непрерыв- ной случайной величиной X с плотностью распределения / (х)
494 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ (ГЛ- 1В (рнс. 18.7.1). Попытаемся распространить ла эту систему введенное в п° 18.1 понятие энтропии. Прежде всего отметим, что понятие «непрерывной системы», как и понятие «непрерывной случайной величины», является некоторой идеализацией. Например, когда мы считаем величину X — рост наугад взятого че- ловека — непрерывной слу- чайной величиной, мы отвле- каемся от того, что факти- чески никто не измеряет рост точнее, чем до 1 см. и что различить между собой два значения роста» разня- щиеся скажем, на 1 мм. практически невозможно. Тем не менее данную слу- чайную величину естественно описывать как непрерывную, хотя можно было бы описать ее и как дискретную, считая совпадающими те зна- чения роста, которые различаются менее чем на 1 см. Точно таким образом, установив предел точности измерений, т. е. некоторый отрезок Дх, в пределах которого состояния системы X практически неразличимы, можно приближенно свести непрерывную систему X к дискретной. Это равносильно замене плавной кривой f (х) ступенчатой, типа гисто- граммы (рис. 18.7.2); при этом каждый участок (раз- ряд) длины Дх заменяется одной точкой-представите- лем. Площади прямоуголь- ников изображают вероят- ности попадания в соответ- ствующие разряды: /(х{)Дх. Если условиться считать неразли- чимыми состояния системы, относящиеся к одному разряду, и объе- динить их все в одно состояние, то можно приближенно определить энтропию системы X, рассматриваемой с точностью до Дх: Ны = — (х() Дх log [/ (х,) Дх) = = — S / (х() Дх [log/(х,)4- log Дх) = = — 2 (/ (xf) log / (xj) Дх — log Дх / (х,) Дх. (18.7.1)
18.7] ЭНТРОПИЯ ДЛЯ СИСТЕМ С НЕПРЕРЫВН МНОЖЕСТВОМ состоял. 495 При достаточно малом Дх сю J] l/U/)log/(*<)] д*~ J/(X)log/(x)dx, I —со сю J/(*)d*=l. и формула (18.7.1) принимает вид: ^дх(А*) = — J' / (х) log / (х) Jx — log Д х. (18.7.2) —оо Заметим, что в выражении (18.7.2) первый член получился совсем не зависящим от Дх—степени точности определения состояний си- стемы. Зависит от Дх только второй член (—logAx), который стре- мятся к бесконечности при Дх—>0. Это и естественно, так как чем точнее мы хотим задать состояние системы X, тем ббльшую степень неопределенности мы должны устранить, и при неограниченном умень- шении Дх эта неопределенность растет тоже неограниченно. Итак, задазаясь произвольно малым «участком нечувствительно- сти» Дх наших измерительных приборов, с помощью которых опре- деляется состояние физической системы X можно найтн энтропию ^хг(А') по формуле (18.7.2). в которой второй член неограниченно растет с уменьшением Дх. Сама энтропия Н±х (X) отличается от этого неограниченно растущего члена на независимую от Дх величину 1 оо «•(*) = — f r(x)log/(x)dx. (18 7 3) Эту величину можно назвать «призеденной энтропией» непрерывной системы X Энтропия НЛ1(X) выражается через приведенную энтро- пию Н'(Х) формулой Н&г(Х) = Н* (X)— loglx. (18.7.4) Соотношение (18.7.4) можно истолковать следующим образом: от точности измерения Дх зависит только начало отсчета, при котором вычисляется энтропия. В дальнейшем для упрощения записи мы будем опускать ин- декс Дх в обозначении энтропии и писать просто Н(Ху, наличие Дх в правой части всегда укажет, о какой точности идет речь. Формуле (18.7.2) для энтропии можно прядать более компактный вид. если, как мы это делали для прерывных величин, записать ее в виде математического ожидания функции. Прежде всего перепишем
496 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ (ГЛ 18 (18.7.2) в виде Н{Х) —— J f (х) log [f{x) Дх] dx. (18.7.5) Это есть не что ипое, как математическое ожидание функции — If (X)} от случайной величины X с плотностью / (х): Н (X) = .И I- log [f (Д') Дх]). (18.7.6) Аналогичную форму можно придать величине Н*(Х): Н* (Д') = Л1 [— log / (Х)[. (18.7.7) Перейдем к определению условной энтропии. Пусть имеются две непрерывные системы: X и У. В общем случае эти системы зави- симы. Обозначим f(х. у) плотность распределения для состояний объединенной системы (X, К); /Дх)—плотность распределения си- стемы Х\ /2(у)—плотность распределения системы К; /(у|х), /(х|у)— условные плотности распределения. Прежде всего определим частную условную энтропию Н(К|х), т. е. энтропию системы У при условии, что система X при- няла определенное состояние х. Формула аля нее будет аналогична (18.4.2), только вместо условных вероятностей Р[xt) будут стоять условные законы распределения /(у|х) и появится слагаемое log Ду: H(Y\x) = — f/(ylx)log/(ylx)dy — leg Ду. (18.7.8) Перейдем теперь к полной (средней) условной энтропии Н (К (Д'); для этого нужно осреднить частную условную энтропию 7/(Ё|х) по всем состояниям х с учетом их вероятностей, характеризуемых плотностью /j (х): Н(К|Х) = — JJ — logiy (18.7.9) или, учитывая, что f(x. у) = /,а-)/(у|х). 7/(Е|Х)= —J J/(x, y)log/(y|x)dxdy —logAy. (18.7.10) Иначе эта формула может быть записана в виде Н (У|X) = М [— log/ (К|Х)1 — log Ду (18.7.11) или tf(K|X) = A4[-log{/(rH)Ay]l. (18.7.12)
18 71 ЭНТРОПИЯ ДЛЯ СИСТЕМ С НЕПРЕРЫВН МНОЖЕСТВОМ состоян 497 Определив таким образом условную энтропию, покажем, как она применяется при определении энтропии объединенной системы. Найдем сначала энтропию объединенной системы непосредственно. Если «участками нечувствительности» для систем X и И будут Дх и Ду, то для объединенной системы (X, Y) роль их будет играть эле- ментарный прямоугольник Дх Ду. Энтропия системы (X, Y) будет Н(Х, Y) = M [— log [f(X. Е;ДхДу][. (18.7.13) Так как /(*. у) = /1(х)/(у]л), то и f(X, Y) = f^X)f(Y\X). (18.7.14) Подставим (18.7.14) в (18.7.13): Н(Х. Y) = Л! [— log Д (X) — \og f (Y | X)— log Дх — log Ду) = = M | - log (Л (X) Дх)] 4- М |- log (/ (Е | Л) Ду)], или, по формулам (18.7.6) и (18.7.12), Н(Х, Y) = H(X) + H(Y\X). (18.7.15) т. е. теорема об энтропии сложной системы остается в силе и для непрерывных систем. Если X и Е независимы, то энтропия объединенной системы равна сумме энтропий составных частей: Н(Х. Е)=Н(Л') + ^(Е). (18.7.16) Пример 1. Найти энтропию непрерывной системы X, все состояния которой иа каком-то участке (а, Р) одинаково вероятны: О при х < а или х > ₽. Решение. н И' (X) = — У '°е р — о dx = |о8 № ~ “> Н (X) = log (р — а) — log Д.г или »(-*)= (18.717) Пример 2 Найти энтропию системы X. состояния которой распреде- лены по нормальному закону: 1 /(Л)=.7^£ • У In а
498 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРНИ ИНФОРМАЦИИ (ГЛ. 18 Решение. Н‘ (X) = Л1 [- log / (X)] = М [- log { yL- «' 2” }] = = лфс® (|'гS. а) -|- Aj- log сJ = log (>л 2Ё i) + * log е. Но ГЛ [X2] = £>[%] = а2, Н' (X) = log (К 2й о) 4- i log е = log (^Лй а) и И(Х) = logOz2rea) — log Лх = log [ • (18.7.18) Пример 3. Состояние самолета характеризуется тремя случайными величинами: высотой И, модулем скорости V н углом 0, определяющим направление полета. Высота самолета распределена с равномерной плотностью на участке (Л,. Л2); скорость V — по нормальному закону с м.о. vQ и с.к.о. ог; угол fi — с равномерной плотностью на участке (0, я). Величины Н, V, 6 не- зависимы. Найти энтропию объединенной системы. Решение. Из примера 1 (формула (18.7.17)) имеем »(//)= log Ь’ где ДЛ — «участок нечувствительности» при определении высоты. Так как энтропия случайной величины не зависит от ее математического ожидания, то для определения энтропии величины V воспользуемся формулой (18.7.18): W(V)=Iog[’^.]. Энтропия величины 0: н (0) = log (г — 0) — log ДО = log . Окончательно имеем: " (Н. V. 0) = log + log + log ~5 или "(« V. 0) = log[A»4-^L. JL}. (18.7.19) Заметим, что каждый из сомножителей под знаком фигурной скобки имеет один и тог же смысл: он показывает, сколько «участков нечувствительности» укладывается в некотором характерном для данной случайной величины от- резке. В счуч?е распределения с равномерной плотностью этот участок пред- ставляет собой просто участок возможных значений случайной величины; в случае нормального распределения этот участок равену 2^ а, где а — сред- нее квадратическое отклонение.
18-7] ЭНТРОПИЯ ДЛЯ СИСТЕМ С НЕПРЕРЫВН. МНОЖЕСТВОМ состояв. 499 Таким образом, мы распространили понятие энтропии на случай непрерывных систем, Аналогично может быть распространено и поня- тие информация. При этом неопределенность, связанная с наличием в выражении энтропии неограниченно возрастающего слагаемого, отпа- дает: при вычислении информации, как разности двух энтропий, эти члены взаимно уничтожаются. Поэтому все виды информации, связан- ные с непрерывными величинами, оказываются не зависящими от У у «участка нечувствительности» Дх. — * — * —*—;-----х Выражение для полной взаим- Л ной информации, содержащейся рис 18.7.3. в двух непрерывных системах X и Y, будет аналогично выражению (18.5.4). но с заменой вероятностей ззкоизми распределения, а сумм — интегралами: /r^=f7/(^млх,1у °8 7-2о> — СО или, применяя знак математического ожидания, /y^x = Al[log >К) ] (18.7.21) Полная взаимная информация Iy+->x. как и в случае дискретных си- стем. есть неотрицательная величина, обращающаяся в нуль только тогда, когда системы X и Y независимы. Пример 4. На отрезке (0, 1) выбираются случайным образом, независимо друг от друга, две точки U н V; каждая из них рас- пределена на этом отрезке с равно- мерной плотностью. В результате опыта одна из точек легла правее, другая — левее. Сколько информа- ции о положении правой точки дает значение положения левой? Решение. Рассмотрим две случайные точки U и V на оси абсцисс Ох (рис. 18.7.3). Обозна- чим Y абсциссу той из них, ко- торая оказалась слева, а X — абс- циссу той, которая оказалась справа (на рис. 18.7.3 слева оказа- лась точка U, но могло быть и наоборот). Величины X и Y определяются через U и V следующим образом: Г=ш1п{£/, Hi X = max [(/, V], Найдем закон распределения системы (X, Y). Так как Y < X, то он будет существовать только в области D, заштрихованной на рис. 18.7.4. Обозначим
500 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ ]ГЛ Т8 / (х, у) плотность распределения системы (Л, К) и найдем элемент вероятности /(х, y)dxdy, т. е. вероятность того, что случайная точка (X, Y) попадет в элементарный прямоугольник (х, x-^dx, у, у-|-^у). Это событие может произойти двумя способами: либо слева окажется точка U. а справа И, либо наоборот. Следовательно, / (х, у) dx dy = ч (х. у) dx dy + (у, х) dx dy, где <p(u, и) обозначена плотность распределения системы величин (С/, У). • В данном случае следовательно, ¥ U. У) = V (У. -v) = 1; / (х, у) dx dy ~ 2 dx dy /(xy)u2 "₽н (-'.»<= о. v ” 1о при (х, y)(£D. Найдем теперь законы распределения отдельных величин, входящих н систему: /((х) = J* / (X, у) dy = J 2dy = 2л при 0 < х < 1; —со О аналогично Л(у) = J/(x, y)dx = J2dx = 2(l —у) при 0 < у < 1. -оо у Графики плотностей (х) и /г(У) изображены иа рис. 18.7.5. Подставляя /(х, у), fl (х) и Л (у) в формулу (18.7.20), получим (О) — 1п24- J*У* 2(—1пх) dxdy-]- У* У*2[— In(1 — у)] dxdy |. (О) (Л * 187] ЭНТРОПИЯ ДЛЯ СИСТЕМ С НЕПРЕРЫВН. МНОЖЕСТВОМ состоян. 501 В силу симметрии задачи последние два интеграла равны, и ^х--!--^//lnxdxdy = (О) -^finxdxfdy- о о y*2xlnxdx = о = -nk — 1 « 0.44 (дв ед.). Пример 5. Имеется случайная величина X, распределенная по нор- мальному закону с параметрами тх = 0, ох. Величина X измеряется с ошиб- кой Z, тоже распределенной по нормальному закону с параметрами шг = 0, аа. Ошибка Z не зависит от X. В нашем распоряжении — результат измерения, т. е. случайная величина Определить, сколько информации о величине X содержит величина К Решение. Воспользуемся для вычисления информации (18.7.21), т. е. найдем ее как математическое ожидание случайной и = 1ог-<<*2) 8 /.(*)/. (FT Для этого сначала преобразуем выражение , /<Х.У) _ | Л(х)/(у|х) . /(у I X) °®Л(х)/,(у) 108 /,(х)Л(у) 108 Л (у) • В нашем случае формулой величины (18.7.22) /а (у) ~ < У 2^+я] _<У~хр 1 2ол /(у|х)=—*_-« у 2паг Выражение (18.7.22) равно: (см. главу 9). Отсюда V4T4 1 (o'-*)2 __2L-J и=108 + жг Г-sT- 2 (4+J V3T? ' 1. = 108 7, 1п2 L 2о] 2(4+ °Э 1 /4+4 1 'r.-,x-MH/]-iog-r J+* + ах 1п2 ‘ м Iz2! м [г2) . 2oJ 2(oJ+<iJ). (18.7.23)
502 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ Но тх = Шу = 0, следовательно, Л1 [Z2] = D [Z] = о2, I Л1 |Г2) = D (Г| =<">+«’. I Подставляя (18.7.24) в (18.7.23), получим log---------<Л» ед.)'). Например, при ог —о2 >Г+->Х= = | (дв ед.). Если ez = 4; ог = 3, то lY^^x= log ~ ~ 0,74 (дв. ед.). (гл 18 (18.7.24) 18.8. Задачи кодирования сообщений. Код Шеннона— Фэно При передаче сообщений по линиям связи всегда приходи гея пользоваться тем или иным кодом, т. е. представлением сообщения в виде ряда сигналов. Общеизвестным примером кода может слу- жить принятая в телеграфии для передачи словесных сообщений азбука Морзе. С помощью этой азбуки любое сообщение представляется в виде комбинации элементарных сигналов: точка, тире, пауза (про- бел между буквами), длинная пауза (пробел между словами). Вообще кодированием называется отображение состояния одной физической системы с помощью состояния некоторой другой. Напри- мер. при телефонном разговоре звуковые сигналы кодируются в виде электромагнитных колебаний, а затем снова декодируются, превра- щаясь в звуковые сигналы на другом конце линии. Наиболее простым случаем кодирования является случай, когда обе системы X и У (отображаемая и отображающая) имеют конечное число возможных состояний. Так обстоит дело при передаче записанных буквами сооб- щений. например, при телеграфировании. Мы ограничимся рассмотре- нием этого простейшего случая кодирования. Пусть имеется некоторая система X (например, буква русского алфавита), которая может случайным образом принять одно из состоя- ний х2..........х„. Мы хотим отобразить ее (закодировать) с по- мощью другой системы У, возможные состояния которой ур у2.......ут. Если т < п (число состояний системы У меньше числа состояний системы X). то нельзя каждое состояние системы X закодировать с по- мощью одного-единственного состояния системы У. В таких случаях одно состояние системы X приходится отображать с помощью опре- деленной комбинации (последовательности) состояний системы У. Так, в азбуке Морзе буквы отображаются различными комбинациями эле- ‘) Применяя формулу (18.7.20). можно было бы прийти к тому же ре- зультату, но более громоздким способом.
13 В) ЗАДАЧИ КОДИРОВАНИЯ СООБЩЕНИЯ. КОД ШЕННОНА - ФЭНО 503 ментарных символов (точка, тире). Выбор таких комбинаций и уста- новление соответствия между передаваемым сообщением и этими ком- бинациями и называется «кодированием» в узком смысле слова. Коды различаются по числу элементарных символов (сигналов), из которых формируются комбинации» иными словами — по числу воз- можных состояний системы Y. В азбуке Морзе таких элементарных символов четыре (точка, тире, короткая пауза, длинная пауза). Пере- дача сигналов может осуществляться в различной форме: световые вспышки, посылки электрического тока различной длительности, зву- ковые сигналы и т. п. Код с двумя элементарными символами (0 и 1) называется двоичным. Двоичные коды широко применяются на прак- тике, особенно при вводе информации в электронные цифровые вы- числительные машины, работающие по двоичной системе счисления. Одно и то же сообщение можно закодировать различными спосо- бами. Возникает вопрос об оптимальных (нанвыгоднейших) способах кодирования. Естественно считать наивыгоднейшим такой код, при котором на передачу сообщений затрачивается минимальнее время. Если на передачу каждого элементарного символа (например 0 или 1) тратится одно и то же время, то оптимальным будет такой код, при котором на передачу сообщения заданной длины будет затрачено минимальное количество элементарных символов. Предположим, что перед нами поставлена задача: закодирован, двоичным кодом буквы русской азбуки так. чтобы каждой букве соответствовала определенная комбинация элементарных символов 0 и 1 и чтобы среднее число этих символов на букву текста было мини- мальным. Рассмотрим 32 буквы русской азбуки: а, б, в, г, д, е, ж, з, и, й, к, л, м, н, о. п, р, с, т, у, ф, х, ц, ч, ш, щ, ъ, ы, ь, э, ю, я плюс промежуток между словами, который мы будем обозначать «—ж. Если, как принято в телеграфии, не различать букв ъ и ь (это не приводит к разночтениям), то получится 32 буквы: а, б, в, г, д, е. ж, з, и, й, к, л, м, н, о, п, р, с, т, у, ф, х, ц, ч, ш» щ, (ъ, ь), ы, э, ю, я, «-». Первое, что приходит в голову — это, не меняя порядка букв, занумеровать нх подряд, приписав им номера от 0 до 31, и затем перевести нумерацию в двоичную систему счисления. Двоичная си- стема—это такая, в которой единицы разных разрядов представляют собой разные степени двух. Например, десятичное число 12 изобра- зится в виде ' 12 = 1 .23-Н -22Н-0-214-0 -2° н в двоичной системе запишется как 1100. Десятичное число 25— 25 = 1 • 24-J- 1 • 23Н-0 • 22-)-0 • 2’4-1 • 2° — запишется в двоичной системе как 11001.
504 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ 18 Каждое из чисел 0, 1, 2, ..., 31 может быть изображено пяти- значным двоичным числом. Тогда получим следующий код: а — 00000 б — 00001 в —00010 г —00011 я —11110 «—.» ~ 11111 В этом коде на изображение каждой буквы тратится ровно 5 элементарных символов. Возникает вопрос, является ли этот простей- ший код оптимальным и нельзя ли составить другой код. в котором на одну букву будет в среднем приходиться меньше элементарных символов? Действительно, в нашем коде па изображение каждой буквы — часто встречающихся «а», «е», «о» или редко встречающихся «щ». «э». «ф»—тратится одно н то же число элементарных символов. Очевидно, разумнее было бы. чтобы часто встречающиеся буквы были закодированы меньшим числом символов, а реже встречающиеся — большим. Чтобы составить такой код. очевидно, нужно знать частоты букв в русском тексте. Эти частоты приведены в таблице 18.8.1. Буквы в таблице расположены в порядке убывания частот. Т а б л и ца 18.8.1 Буква Частота Буква Частота Букв» Частота Буква Частота 0.145 р 0.041 Я 0,019 0,009 О 0,095 В 0,039 ы 0.016 ж 0,004 е 0.074 Л О.ОЗо 3 0.015 ю 0.007 а 0,064 к 0,0/9 Ъ 1> 0,015 ш 0,00b и 0,064 м 0.02(5 6 0.015 ц 0,004 т 0.056 л 0.(126 0.014 щ 0,003 в 0.0:56 п 0.0 ’4 1 4 0,013 э 0,003 с O.OI7 У 0,021 й 0.010 ф 0.002 Пользуясь такой таблицей, можно составить наиболее экономич- ный код на основе соображений, связанных с количеством информа- ции. Очевидно, код будет самым экономичным, когда каждый эле- ментарный символ будет передавать максимальную информацию. Рассмотрим элементарный символ (т. е. изображающий его сигнал) как физическую систему с двумя возможными состояниями: 0 и 1.
18 81 ЗАДАЧИ КОДИРОВАНИЯ СООБЩЕНИЯ. КОД ШЕННОНА - ФЭНО 505 Информация, которую дает этот символ, равна энтропии системы и максимальна в случае, когда оба состояния равновероятны; в этом случае элементарный символ передает информацию 1 (дв. ед.). Поэтому основой оптимального кодирования будет требование, чтобы элементарные символы в закодированном тексте встречались в сред- нем одинаково часто- Т а б л и ц а 18.8.2 ставленном}' условию, этот способ известен под названием «кода Шеннона — Фэно». Идея его состоит в том, что кодируемые символы (буквы или комбинации букв) разделяются на две приблизительно равновероятные группы; для первой группы символов на первом месте комбинации ставится 0 (первый знак двоичного числа, изображающего символ); для второй группы—1. Далее каждая группа снова делится на две приблизительно равновероятные подгруппы; для символов пер- вой подгруппы на втором месте ставится нуль; для второй подгруппы — единица и т. д. Продемонстрируем принцип построения кода Шеннона—Фэно на материале русского алфавита (табл. 18.8.1). Отсчитаем первые шесть
506 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ |ГЛ. 18 букв (от «—» до «т»); .суммируя их вероятности (частоты), получим 0,498; на все остальные буквы (от «н» до «ф») придется приблизи- тельно такая же вероятность 0,502. Первые шесть букв (от «—» до «т») будут иметь на первом месте двоичный знак 0. Остальные буквы (от «и» до «ф») будут иметь на первом месте единицу. Далее снова разделим первую группу на две приблизительно равновероятные под- группы: от «—» до «о» и от «е» до «1»; для всех букв первой подгруппы на втором месте поставим нуль, а второй подгруппы — единицу. Процесс будем продолжать до тех пор, пока в каждом подразделении не останется ровно одна буква, которая и будет за- кодирована определенным двоичным числом. Механизм построения кода покаэзн на таблице 18.8.2, а сам код приведен в таблице 18.8.3. Таблица 18.8.3 Буква Двоичное ЧИСЛО Бухм Двоичное число Буква Двоичное число 000 к 10111 ч 111100 О 001 н 11000 й иною е 0100 д 110010 X 11110]1 а 0101 п 110011 ж IIII100 и оно у 110100 ю 1111101 т 0111 я 110110 IU 11111100 н 1000 ы 110111 Ц 11111101 с 1001 3 111000 Щ 11111110 р 10100 ъ, ь 111001 э 11111111» в 10101 б 1110Ю Ф 111111111 л 10110 г 111011 С помощью таблицы 18.8.3 можно закодировать и декодировать любое сообщение. В виде примера запишем двоичным кодом фразу: «теория ин- формации» 01110100001101000110110110000 0110100011111111100110100 1100001011111110101100110 Заметим, что здесь нет необходимости отделять друг от друга буквы специальным знаком, так как i: без этого декодирование вы- полняется однозначно. В этом можно убедиться, декодируя с по- мощью таблицы 18,8.2 следующую фразу: 10011100110011001001111010000 1011100111001001101010000110101 010110000110110110 («способ кодирования»).
18.8) ЗАДАЧИ КОДИРОВАНИЯ СООБЩЕНИЙ. КОД ШЕННОНА - ФЭНО 507 Однако необходимо отметить, что любая ошибка при кодирова- нии (случайное перепутывание знаков 0 и 1) при таком коде губи- тельна, так как декодирование всего следующего за ошибкой текста становится невозможным. Поэтому данный принцип кодирования может быть рекомендован только в случае, когда ошибки при кодировании и передаче сообщения практически исключены. Возникает естественный вопрос: а является ли составленный нами код при отсутствии ошибок действительно оптимальным? Для того чтобы ответить га этот вопрос, найдем среднюю информацию, при- ходящуюся на один элементарный символ (0 или 1). и сравним ее с максимально возможной информацией, которая равна одной двоич- ной единице. Длв этого найдем сначала среднюю информацию, содер- жащуюся в одной букве передаваемого текста, т. е. энтропию на одну букву: 32 32 Н(б) = — 2/>/'оер,= 1=1 1=1 где Pt — вероятность того, что буква примет определенное состояние («—», о, е, а....ф). Из табл. 18.8.1 имеем //(б? = ?} (0.145)+ ?} (0.095) + ... + ?}(0,003) + ?}(0.002) «4,42 (да. единиц на букву текста). По таблице 18.8.2 определяем среднее число элементарных сим- волов на букву лср = 3-0.145 + 3-0,095 + 4-0,074+ ... ... + 9 - 0.003 + 9 • 0,002 = 4.45. Деля энтропию Н (б) на пср, получаем информацию на один эле- ментарный символ 4 42 /,с=433~ 0,994 (дв’ ед>- Таким образом, информация на один символ весьма близка к сво- ему верхнему пределу 1, а выбранный нами код весьма близок к оптимальному. Оставаясь в пределах задачи кодирования по буквам, мы ничего лучшего получить не сможем. Заметим, что в случае кодирования просто двоичных номеров букв мы имели бы изображение каждой буквы пятью двоичными зна- ками и информация на один символ была бы 4 42 /ic = jjjQ= 0.884 (дв. ед.), т. е. заметно меньше, чем при оптимальном буквенном кодировании. Однако надо заметить, что кодирование «по буквам» вообще не является экономичным. Дело в том, что между соседними буквами
508 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ |ГЛ 18 любого осмысленного текста всегда имеется зависимость. Напри- мер, после гласной буквы в русском языке не может стоять «ъ» или «ь»; после шипящих не могут стоять «я» или «ю»; после не- скольких согласных подряд увеличивается вероятность гласной и т. д. Мы знаем, что при объединении зависимых систем суммарная энтропия меньше суммы энтропий отдельных систем; следовательно, информация, передаваемая отрезком связного текста, всегда меньше, чем информация на один символ, умноженная на число символов. С учетом этого обстоятельства более экономный код можно построить, если кодировать не каждую букву в отдельности, а целые «блоки» из букв. Например, в русском тексте имеет смысл кодировать цели- ком некоторые часто встречающиеся комбинации букв, как «тся», «ает», «ние» и т. п. Кодируемые блоки располагаются в порядке убывания частот, как буквы в табл. 18.8.1, а двоичное кодирование осуществляется по тому же принципу. В ряде случаев оказывается разумным кодировать даже не блоки из букв, а целые осмысленные куски текста. Например, для разгрузки телеграфа в предпраздничные дни целесообразно кодировать условными номерами целые стандартные тексты, вроде: «поздравляю новым годом желаю здоровья успехов работе». Не останавливаясь специально на методах кодирования блоками, ограничимся тем. что сформулируем относящуюся сюда теорему Шеннона. Пусть имеется источник информации X и приемник К, связанные каналом связи К (рис. 18.8.1). Известна производительность источника информации HV(X), т. е. среднее количество двоичных единиц информации, поступающее от источника в единицу времени (численно оно равно средней энтропии сообщения, производимого источником в единицу вре- мени). Пусть, кроме того, известна про- Рис. 18.8.1. пускная способность канала т. е. максимальное количество информации (на- пример. двоичных знаков 0 или 1), которое способен передать канал в ту же единицу времени. Возникает вопрос: какова должна быть пропускная способность канала, чтобы он «справлялся» со своей за- дачей, т. е. чтобы информация от источника X к приемнику Y по- ступала без задержки? Ответ на Этот вопрос дает первая теорема Шеннона. Сформули- руем ее здесь без доказательства. 1-я теорема Шеннона Если пропускная способность канала связи Сх больше энтро- пии источника информации в единицу времени
189] ПЕРЕДАЧА ИНФОРМАЦИИ С ИСКАЖЕНИЯМИ 509 то всегда можно закодировать достаточно длинное сообще- ние так. чтобы оно передавалось каналом связи без задержки. Если же. напротив. Сх<Нх(Х). то передача информации без задержек невозможна. 18.9. Передача информации с искажениями. Пропускная способность канала с помехами В предыдущем п° мы рассмотрели вопросы, связанные с кодиро- ванием и передачей информации по каналу связи в идеальном случае, когда процесс передачи информации осуществляется без ошибок. В действительности этот процесс неизбежно сопровождается ошиб- ками (искажениями). Канал передачи, в котором возможны искаже- ния, называется каналом с помехами (или шумами). В частном случае ошибки возникают в процессе самого кодирования, и тогда кодирующее устройство может рассматриваться как канал с помехами. Совершенно очевидно, что наличие помех приводит к потере информации. Чтобы в условиях наличия помех получить на прием- нике требуемый объем информации, необходимо принимать специаль- ные меры. Одной из таких мер является введение так называемой «избыточности» в передаваемые сообщения; при этом источник ин- формации выдает заведомо больше символов, чем это было бы нужно при отсутствии помех. Одна из форм введения избыточности—про- стое повторение сообщения. Таким приемом пользуются, например, прн плохой слышимости по телефону, повторяя каждое сообщение дважды. Другой общеизвестный способ повышения надежности пере- дачи состоит в передаче слова «по буквам» — когда вместо каждой буквы передается хорошо знакомое слово (имя), начинающееся с этой буквы. Заметим, что все живые языки естественно обладают некоторой избыточностью. Эта избыточность часто помогает восстановить пра- вильный текст «по смыслу» сообщения. Вот почему встречающиеся вообще нередко искажения отдельных букв телеграмм довольно редко приводят к действительной потере информации: обычно удается исправить искаженное слово, пользуясь одними только свойствами языка. Этого не было бы при отсутствии избыточности. Мерой избы- точности языка служит величина 1/=1—Дй-. (18.9.1) log п ' ' где Н1С — средняя фактическая энтропия, приходящаяся на один пе- р г даваемый символ (букву), рассчитанная для достаточно длинных отрывков текста, с учетом зависимости между символами, п — число
510 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 18 применяемых символов (букв), logn— максимально возможная в дан- ных условиях энтропия на один передаваемый символ, которая была бы. если бы все символы были равновероятны и независимы. Расчеты, проведенные на материале наиболее распространенных европейских языков, показывают, что нх избыточность достигает 50% и более (т. е., грубо говоря, 50% передаваемых символов являются лишними и могли бы не передаваться, если бы не опасность иска- жений). Однако для безошибочной передачи сведений естественная избы- точность языка может сказаться как чрезмерной, так и недостаточ- ной: все зависит от того, как велика опа- /г I ГП сность искажений («уровень помех») в ка- * | *" нале связи. «— ----- С помощью .методов теории ипформа- Птюхи ним можно для каждого уровня помех Рис. 18.9.1. найти нужную степень избыточности источ- ника информации. Те же методы помо- гают разрабатывать специальные помехоустойчивые коды (в частности, так называемые «самокорректирующиеся» коды). Для решения этих задач нужно уметь учитывать потерю информации в канале, связан- ную с । альчвем помех. Рассмотрим сложную систему, состоящую из источника информа- ции X. канала связи К и приемника К (рис. 18.9.1). Источник ин- формации представляет собой физическую систему X, которая имеет а возмож! ых состояний *!• *2....Хп с вероятностями Рг Рг..............................Рп- Будем рассматривать эти состояния как элементарные символы, кото- рые может передавать источник X через канал К к приемнику У. Количество информации на один символ» которое дает источник, бу- дет равно энтрепщ} на один символ: H(X) = -2 pjogp,. 1 = 1 Если бы передача сообщений не сопровождалась ошибками, то коли- чество информации, содержащееся в системе У относительно X, было бы равно самой энтропии системы X. При наличии ошибок оно бу- дет меньше: /к<_>.х = Н(ЛО—Н(х¥,П. Естественно рассматривать условную энтропию Н(Х\У) как потерю информации на один элементарный символ, связанную с наличием помех.
ПЕРЕДАЧА ИНФОРМАЦИИ С ИСКАЖЕНИЯМИ 511 «в] Умея определять потерю информации в канале, приходящуюся на один элементарный символ, переданный источником информации, можно определить пропускную способность канала с поме- хами, т. е. максимальное количество информации, которое способен передать канал в единицу времени. Предположим, что канал может передавать в единицу времени k элементарных символов. В отсутствие помех пропускная способ- ность канала была бы равна C = Alog«, (18.9.2) так как максимальное количество информации, которое может содер- жать один символ, равно log л, а максимальное количество инфор- мации, которое могут содержать k символов, равно A log л, и оно достигается, когда символы появляются независимо друг от друга. Теперь рассмотрим каиал с помехами. Его пропускная способ- ность определится как C = imax/J‘4Xl 1 (18.9.3) где тах/р^х—максимальная информация на один символ, которую может передать канал при наличии помех. Определение этой максимальной информации в общем случае — дело довольно сложное, так как она зависит от того, как и с какими вероятностями искажаются символы; происходит лн их перепутывание, или же простое выпадение некоторых символов; происходят ли искажения символов независимо друг от друга н т. д. Однако для простейших случаев пропускную способность канала удается сравнительно легко рассчитать. Рассмотрим, например, такую задачу. Канал связи К передает от источника информации X к приемнику У элементарные символы 0 н 1 в количестве k символов в единицу времени. В процессе передачи каждый символ, независимо от других, с вероятностью р может быть искажен (т. е. ваменеи противоположным). Требуется найти при- пускную способность канала. Определим сначала максимальную информацию на один символ, которую может передавать канал. Пусть источник производит сим- волы 0 и 1 с вероятностями р и 1 — Тогда энтропия источника будет W(X) = —plogp—(1 —р) log (1 — р). Определим информацию на один элементарный символ: /’/'-х = н(П—Н(И*>. Чтобы найти полную условную энтропию Н(У\Х), найдем сна- чала частные условные энтропии: Н (К | Xj) (энтропию системы У при условки, что система X приняла состояние х0 ь /7(У'|х >
512 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ ггл. 18 (энтропию системы V при условии, что система X приняла состоя- ние х2). Вычислим х(); для этого предположим, что передан элементарный символ 0. Найдем условные вероятности того, что при этом система К находится в состоянии уд = 0 и в состоянии у2= 1. Первая из них равна вероятности того, что сигнал не перепутал: Z3 0’11*1)= 1 —1‘; вторая—вероятности тою, что сигнал перепутан: /’О’гК*1) = 1*- Условная энтропия /7(К|л:1) будет: 2 п (У | *,) = — 2 р о, I *i) i°e р (у,1*0 = i=l 9 = —(1 —p)10g(l —р) —plogp. Найдем теперь условную энтропию системы Y при условии, что А' — Л'2 (передан сигнал единица): /’<У11*2) = |*; /’(^|*г)=|—!» откуда Н (К | х2) — — р log р — (1 — р) log (I — р). Таким образом» /7(E|x1) = W(K|>;2) = — plogp — (1 — p)log(l— |а). (18.9,4) Полная условная энтропия H(Y\X) получится, если осреднить услов- ные энтропии //(F|jtj) к Л/(К|х2) с учетом вероятностей р к 1—р значений хр х2. Так как частные условные энтропии равны, то H(Y\X) = — plogp — (1 — p)log(l — р). Мы получили следующий вывод: условная энтропия H(Y\X) совсем не зависит от того, с какими вероятностями р. 1 — р встречаются символы 0; 1 в передавав иом сообщении, а зави- сит только от вероятности ошибки р. Вычислим полную информацию, передаваемую одним символом: /г^л = Н(Е) —Н(Е|Л) = = [— г log г — (1 — r)log(l — г)| — — (—plog|‘ —(• —p)log(l —11)| — = [’!(') -MU — Ol —I’lW + ’lU — Н>1-
18.fi] ПЕРЕДАЧА ИНФОРМАЦИИ С ИСКАЖЕНИЯМИ 513 где г — вероятность того, что на выходе появится символ 0. Оче- видно, при заданных свойствах канала информация на один символ достигает максимума, когда ?](/) +73(1—с) максимально. Мы знаем, что такая функция достигает максимума прн г =1/2, т. е. когда на приемнике оба сигнала равновероятны. Легко убедиться, что это достигается, когда источник передает оба символа с одинаковой вероятностью р —1/2. Прн том же значении р=1/2 достигает максимума и информация на один символ. Максимальное значение равно 1‘}\х = И (О — [7) (J.) -Ь 7) (1 — |*)| = 1 - 17} (р.) + 7J ( 1 — |!) |. Следовательно, в нашем случае max /VL»X = 1 — (т) (р) -h т] (1 — |i)l. и пропускная способность канала связи будет равна С = А(1 — l7}(p) + 1j(l__ |А)]|. (18.9.5) Заметим, что + —I1) есть не что иное, как энтропия системы, имеющей два возможных состояния с вероятностями ц и 1—р.. Она характеризует потерю информации на один символ, связанную с наличием помех в канале. Пример. 1. Определить прорускную способность канала связи, способ- ного передавать 100 символов 0 или 1 в единицу времени, причем каждый из символов искажается (заменяется противоположным) с вероятностью р = 0,01. Решение. По таблице 7 приложения находим т; (р) = 0,0664, ij (I — и) = 0,0144, •Ч(Ю-Н(1-Р) = 0,0808. На одни символ теряется информация 0,0808 (дв. ед). Пропускная способ- ность канала равна с = 100 (1 — 0,0808) = 91.92 яв 92 двоичные единицы в единицу времени. С помощью аналогичных расчетов может быть определена про- пускная способность канала и в более сложных случаях: когда число элементарных символов более двух и когда искажения отдельных символов зависимы. Зная пропускную способность канала, можно определить верхний предел скорости передачи информации по каналу с помехами. Сформулируем (без доказательства) относящуюся к этому случаю вторую теорему^ Шеннона. 2-я теорема Шеннона Пусть имеется источник информации X, энтропия кото- рого в единицу времени равна Н(Х), и канал с пропускной способностью С. Тогда если Н{Х) > С. J7 Теория всроягносгей
614 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ [ГЛ. 10 то при любом кодировании передача-сообщений без задержек и искажений невозможна. Если же И (А) < С. то всегда можно достаточно длинное сообщение закодировать так. чтобы оно было передано без задержек и искажений с вероятностью, сколь угодно близкой к единице. Пример 2. Имеются источник информации с энтропией в единицу времени Н(Х) = 100 (дв. ед.) и два канала связи; каждый нз них может передавать в единицу времени 70 двоичных знаков (0 или 1); каждый двоич- ный знак заменяется противоположным с вероятностью р- = 0.1. Требуется выяснить: достаточна ли пропускная способность этих каналов для передачи информации, поставляемой источником? Решение. Определяем потерю информации на одни символ: Ч (н) 4-1 (I — F) = 0,332 4- 0,137 = 0,469 (дв. ед). Максимальное количество информации, передаваемое по одному каналу в единицу времени: С = 70 (1—0,469) = 37,2. Максимальное количество информации, которое может быть передано по двум каналам в единицу времени: 37,2-2 = 74,4 (дв. ед.). чего недостаточно для обеспечения передачи информации от источника.
ГЛАВА 19 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ 19.1. Предмет теории массового обслуживания За последние десятилетия в самых разных областях практики возникла необходимость в решении своеобразных вероятностных задач, связанных с работой так называемых систем массового обслуживания. Примерами таких систем могут служить: телефон- ные станции, ремонтные мастерские, билетные кассы, справочные бюро, парикмахерские и т. п. Каждая такая система состоит из какого-то числа обслуживающих единиц» которые мы будем назы- вать «каналами» обслуживания. В качестве каналов motjtt фигури- ровать: линии связи; лица, выполняющие те лк иные операции; раз- личные приборы и т. п. Системы массового обслуживания могут быть как одио-.так и многоканальными. Работа любой системы массового обслуживания состоит в выпол- нении поступающего на нее потока требований или заявок. Заявки поступают одна за другой в некоторые, вообще говоря, случайные, моменты времени. Обслуживание поступившей заявки продолжается какое-то время, после чего канал освобождается и снова готов для приема следующей заявки. Каждая система массового обслуживания, в зависимости от числа каналов и их производительности, обладает какой-то пропускной способностью, позволяющей ей более или меиее успешно справляться с потоком заявок. Предмет теории массового обслуживания — установление зависимости между характером потока заявок, производительностью отдельного канала, числом каналов и успешностью (эффективностью) обслуживания. В качестве характе- ристик эффективности обслуживания—в зависимости от условий задачи и целей исследования — могут применяться различные вели- чины и функции, например: средний процент заявок, получающих отказ и покидающих систему необслужекными; среднее время «простоя» отдельных каналов и системы в целом; среднее время ожидания в очереди; вероятность того, что поступившая заявка немедленно будет принята к обслуживанию; закон распределения длины очереди и т. д. Каждая из этих характеристик описывает, с той или другой стороны, степень приспособленности системы и выполнению потока аагвок, иными словами — ее пропускную способность. J7-
516 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ 1В Под «пропускной способностью* в узком смысле слова обычно понимают среднее число заявок, которое система может обслужить в единицу времени. Наряду с нею часто рассматривают относительную пропускную способность — среднее отношение числа обслуженных заявок к числу поданных. Пропускная способность (как абсолютная, так и относительная) в общем случае зависит не только от пара- метров системы, но и от характера потока заявок. Если бы заявки поступали регулярно, через точно определенные промежутки времени, и обслуживание каждой заявки тоже имело строго определенную длительность, расчет пропускной способности системы не предста- влял бы никакой трудности. На практике обычно моменты поступления заявок случайны; по большей части случайна и длительность обслу- живания заявки. В связи с этим процесс работы системы протекает нерегулярно: в потоке заявок образуются местные сгущения и разре- жения. Сгущения могут привести либо к отказам в обслуживании, либо к образованию очередей. Разрежения могут привести к непроиз- водительным простоям отдельных каналов или системы в целом. На эти случайности, связанные с неоднородностью потока заявок, накладываются еще случайности, связанные с задержками обслужи- ванья отдельных заявок. Таким образом, процесс функционирования системы массового обслуживания представляет собой случайный процесс. Чтобы дать рекомендации по рациональной организации системы, выяснить ее пропускную способность и предъявить к ней требования, необходимо изучить случайный процесс, протекающий в системе, и описать его математически. Этим и занимается теория массового обслуживания. Заметим, что за последние годы область применения математи- ческих методов теории массового обслуживания непрерывно расши- ряется и все больше выходит за пределы задач, связанных с «обслу- живающими организациями* в буквальном смысле слова. Многие задачи автоматизации производства оказываются близкими к теории массового обслуживания: потоки деталей, поступающих для выполнения над ними различных операций, могут рассматриваться как «потоки заявок», ритмичность поступления которых нарушается за счет слу- чайных причин. Своеобразные задачи теории массового обслуживания возникают в связи с проблемой организации транспорта и системы сообщений. Близкими к теории массового обслуживания оказываются и задачи, относящиеся к надежности технических устройств: такие нх характеристики, как среднее время безотказной работы, потребное количество запасных деталей, среднее время простоя в связи с ре- монтом и т. д., определяются методами, непосредственно заимство- ванными из теории массового обслуживания. Проблемы, родственные задачам массового обслуживания, постоянно возникают в военном деле. Каналы наведения, линии связи, аэродромы, устройства для сбора и обработки информации представляют собой
1В.2] СЛУЧАЙНЫЙ ПРОЦЕСС СО СЧЕТНЫМ МНОЖЕСТВОМ СОСТОЯНИЙ 517 своеобразные системы массового обслуживания со своим режимом работы и пропускной способностью. Трудно даже перечислить все области практики, в которых нахо- дят применение методы теории массового обслуживания. За последние годы она стала одной из самых быстро развивающихся ветвей теории вероятностей. В настоящей главе будут изложены некоторые элементарные све- дения по теории массового обслуживания, знание которых необходимо любому инженеру, занимающемуся вопросами организации в области промышленности, народного хозяйства, связи, а также в военном деле. 19.2. Случайный процесс со счетным множеством состояний Случайный процесс, протекающий в системе массового обслужива- ния, состоит в том, чго система в случайные моменты времени пере- ходит из одного состояния в другое: меняется число занятых каналов, число заявок, стоящих в очереди, и т. п. Такой процесс существенно отличается от случайных процессов, которые мы рассматривали в гла- вах 15—17. Дело в том, что система массового обслуживания пред- ставляет собой физическую систему дискретного типа с конеч- ным (или счетным) множеством состояний ’). а переход системы из одного состояния в другое происходит скачком, в момент, когда осу- ществляется какое-то событие (приход новой заявки, освобождение канала, уход заявки из очереди и т. п.). Рассмотрим физическую систему X со счетным множеством со- стояний V V *- В любой момент времени t система X может быть в одном нз этих состояний. Обозначим pk(t) (k= I, 2......п. .. .) вероятность того, что в момент t система будет находиться в состоянии xk. Очевидно, дл» любого/ 2 „(/) = «. (19.2.1) Совокупность вероятностей ph (t) для каждого момента времени t ха- рактеризует данное сечение случайного процесса, протекающего в си- стеме. Эта совокупность не является исчерпывающей харакгсристикий процесса (она, например, совсем не отражает зависимости между се- чениями), но все же достаточно хорошо описывает процесс и для ряда практических применений оказывается достаточной. Случайные процессы со счетным множеством состоянии бывают двух типов: с дискретным нли непрерывным временем. Первые отлича- ются тем, что переходы из состояния в состояние могут происходить *) В математике «счетным» называется конечное или бесконечное множе- ство, члены которого можно перенумеровать, т. е. записать в виде после- довательности eb a2,.... e„,...
518 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ 19 только в строго определенные, разделенные конечными интервала- ми моменты времени fp t2. ... Случайные процессы с непрерывным временем отличаются тем, что переход системы из состояния в со- стояние возможен в любой момент времени t. В качестве примера дискретной системы X. в которой протекает случайный процесс с непрерывным временем, рассмотрим группу из п самолетов, совершающих налет ла территорию противника, обороняе- мую истребительной авиацией. Ни момент обнаружения группы, ин моменты подъема по ней истребителей заранее не известны. Различ- ные состояния системы соответствуют различному числу пораженных самолетов в составе группы: х0 — не поражено нн одного самолета, л?! — поражен ровно один самолет, хк — поражено ровно k самолетов, х„ — поражены все п самолетов. Схема возможных состояний системы и возможных переходов из состояния в состояние показана на рис. 19.2.1. Стрелками показаны возможные переходы системы из состояния в состояние. Закругленная стрелка, направленная из состояния в пего же. означает, что система может не только перейти в соседнее Рис 19.2.1. состояние хЛ+1, но и остаться в прежнем. Для данной системы характерны необратимые переходы (пораженные самолеты не восстанавливаются); в связи с этим из состояния хп никакие пере- ходы в другие состояния уже невозможны. Отметим, что на схеме возможных переходов (рис. 19.2.1) пока- заны только переходы из состояния в соседнее состояние н не пока- заны «перескоки» через состояние: этн перескоки отброшены как практически невозможные. Действительно, для того чтобы система «перескочила» через состояние, нужно, чтобы строго одновременно были поражены два или более самолета, а вероятность такого собы- тия равна нулю. Случайные процессы, протекающие в системах массового обслужи- вания. как правило, представляют собой процессы с непрерывным временем. Это связано со случайностью потока заявок. В противопо- ложность системе с необратимыми переходами, рассмотренной в пре- дыдущем примере, для системы массового обслуживания характерны
19.2] случайный процесс со счетным множеством состояний 519 обратимые переходы: занятый канал может освободиться, оче- редь может «рассосаться», В качестве примера рассмотрим одноканальиую систему массового обслуживания (например, одну телефонную линию), в которой заявка, заставшая канал запятым, не становится в очередь, а покидает си- стему (получает «отказ»), Это—дискретная система с непрерывным временем и двумя возможными состояниями: х0— канал свободен, х£— канал занят. Переходы из состояния в состояние обратимы. Схема возможных переходов показана на рис. 19.2,2. Рис. 19,2.2. Рис. 19.2.3. Для п-канальной системы такого же типа схема возможных пере- ходов показана на рис. 19.2.3. Состояние х0.— все каналы свободны; X]—занят ровно один канал, х2— занято ровно два канала и т. д. Рассмотрим еще один пример дискретной системы с непрерывным временем: одноканальную систему массового обслуживания, которая может находиться в четырех состояниях: х0 — канал исправен и свободен. Xj — канал исправен и занят, х2 — канал неисправен и ждет ремонта, х3 — канал неисправен и ремонтируется. Схема возможных переходов для этого случая показана на рис. 19.2.4 ’)• Переход системы из х3 непосредственно в хр минуя х0. можно счи- тать практически невозможным, так как для этого нужно, чтобы окончание ремонта и приход оче- редной заявки произошли строго в одни и тот же момент времени. Для того чтобы описать Случайный процесс, протекающий в дискретной системе с непрерывным временем, прежде всего нужно проанализировать причины, вызывающие переход системы из состоя- ния в состояние. Для системы массового обслужи- Рис. 19.2.4. ваиия основным фактором, обусловливающим протекающие в пей про- цессы, является поток заявок. Поэтому математическое описание любой системы массового обслуживания начинается с описания потока заявок. ) Схема составлена в предположении, что неработающий канал винти из строя не может.
520 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ 19 19.3. Поток событий. Простейший лоток и его свойства Пол потоком событий в теории вероятностей понимается после- довательность событий, происходящих Одно за другим в какие-то мо- менты времени. Примерами могут служить: поток вызовов на телефон- ной станции: поток включений приборов в бытовой электросети; поток заказных писем, поступающих в почтовое отделение; поток сбоев (неисправностей) электронной вычислительной машины; поток выстре- лов. направляемых на цель во время обстрела» и т. п. События» обра- зующие поток, в общем случае могут быть различными, но здесь мы будем рассматривать лишь поток однородных событий, различаю- щихся только моментами появления. Такой поток можно изобразить как последовательность точек tx. t2.... tk, ... ка числовой оси (рис. 19.3.1). соответствующих моментам появления событий. Рис. 19.3.1. Поток событий называется регулярным, если события следуют одно за другим через строго определенные промежутки времени. Та- кой поток сравнительно редко встречается в реальных системах, по представляет ингерес как предельный случай. Типичным для системы массового обслуживания является случайный поток заявок. В настоящем п мы рассмотрим потоки событий, обладающие некоторыми особенно простыми свойствами. Для этого введем ряд определений. Г. Поток событий называется стационарным, если вероятность попадания того или иного числа событий на участок времени длиной т (рис. 19.3.1) зависит только от длины участка н не зависит от того, где именно на оси Ot расположен этот участок. 2. Поток событий называется потоком без последействия, если для любых неперекрывающихся участков времени число событий» по- падающих на один из них» не зависит от числа событий, попадающих на другие. 3. Поток событий называется ординарным, если вероятность по- падания на элементарный участок Lt двух или более событий прене- брежимо мала по сравнению с вероятностью попадания одного события. , Если поток событий обладает всеми тремя свойствами (т. е. ста- ционарен, ординарен и не имеет последействия), то он называется простейшим (или стационарным пуассоновским) потоком. Название «пуассоновский» связано с тем, что при соблюдении условий 1 -s-3 число событий, попадающих на любой фиксированный интервал вре- мени, будет распределено по закону Пуассона (см. п° 5.9).
ЮЗ] ПОТОК СОБЫТИЙ. ПРОСТЕЙШИЙ поток и ЕГО СВОЙСТВА 521 Рассмотрим подробнее условия посмотрим, чему они соот- ветствуют для потока заявок и за счет чего они могут нару- шаться. I. Условию стационарности удэвлетворяет поток заявок, вероят- ностные характеристики которого ие зависят от времени. В частности, для стационарного потока характерна постоянная плотность (среднее число заявок в единицу времени). На практике часто встре- чаются потоки заявок, которые (по крайней мере, на ограниченном отрезке времени) могут рассматриваться как стационарные. Например, поток вызовов на городской телефонной станции на участке времени от 12 до 13 часов может считаться стационарным. Тот же поток в те- чение целых суток уже пе может считаться стационарным (ночью плотность вызовов значительно меньше, чем днем). Заметим, что так обстоит дело и со всеми физическими процессами, которые мы назы- ваем «стационарными»: в действительности все они стационарны лишь на ограниченном участке времени, а распространение этого участка до бесконечности — лишь удобный прием, применяемый в целях упро- щения анализа. Во многих задачах теории массового обслуживания представляет интерес проанализировать работу системы при постоян- ных условиях; тогда задача решается для стационарного потока заявок. 2. Условие отсутствия последействия — наиболее существенное для простейшего потока — означает, что заявки поступают в систему не- зависимо друг от друга. Например, поток пассажиров, входящи. на станцию метро, можно считать потоком без последействия потому, что причины, обусловившие приход отдельного пассажира именно в тот, а не другой момент, как правило, не связаны с аналогичными причинами для других пассажиров. Однако условие отсутствия после- действия может быть легко нарушено за счет появления такой зави- симости. Например, поток пассажиров, покидающих станцию метро, уже не может считаться потоком без последействия, так как моменты выхода пассажиров, прибывших одним и тем же поездом, зависимы между собой. Вообще нужно заметить, что выходной поток (или поток обслу- женных заявок), покидающий систему массового обслуживания, обычно имеет последействие, даже если входной поток его не имеет. Чтобы убедиться в этом, рассмотрим одноканальную систему массового обслу- живания, для которой время обслуживания одной заявки вполне опре- делено и равно to(). Тогда в потоке обслуженных заявок минимальный интервал времени между заявками, покидающими систему, будет ра- вен /об. Нетрудно убедиться, что наличие такого минимального интер- вала неизбежно приводит к последействию. Действительно, пусть стало известно, что в какой-то момент систему покинула обслуженная заявка. Тогда можно утверждать с достоверностью, что на любом участке времени ч, лежащем в пределах (fp Zi + /o6)» обслуженной
622 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ |ГЛ 19 заявки не появится; значит, будет иметь место зависимоегь между чи- слами событий на неперскрывающмхея участках. Последействие, присущее выходному потоку, необходимо учитывать, если этот поток является входным для какой-либо другой системы массового обслуживания (так называемое «многофазовое обслуживание», ко1да одна к та же заявка последовательно переходит из системы в систему). Отметим, между прочим, что самый простой на первый взгляд ре- гулярный поток, в котором события отделены друг от друга ранными интервалами, отнюдь не является «простейшим» п нашем смысле слова, так как в кем имеется ярко выраженное последействие: моменты появ- ления следующих друг за другом событий связаны жесткой, функцио- нальной зависимостью. Именно из-зя наличия последействия анализ процессов, протекающих в системе массового обслуживания прн регу- лярном потоке заявок, гораздо сложнее, чем при простейшем. 3. Условие ординарности означает, что заявки приходят пооди- ночке. а не парами, тройками и т. д. Например, поток атак, которому подвергается воздушная цель в зоне действия истребительной авиа- ции, будет ординарным, если истребители атакуют цель поодиночке, и не будет ординарным, если истребители идут в атаку парами. Поток клиентов, входящих в парикмахерскую, может считаться практически ординарным, чего нельзя сказать о потоке клиентов, направляющихся в ЗАГС для регистрации брака. Если в неординарном потоке заявки поступают только парами, только тройками и т. д., то неординарный поток легко свести к орди- нарному; для этого достаточно вместо потока отдельных заявок рас- смотреть поток пар, троек и т. д. Сложнее будет, если каждая заявка случайным образом может оказаться двойной, тройной и т, д. Тогда уже приходится иметь дело с потоком не однородных, а разнород- ных событий. В дальнейшем мы для простоты ограничимся рассмотрением орди- нарных потоков. Простейший поток играет среди потоков событий вообще особую роль, до некоторой степени аналогичную роли нормального закона среди других законов распределения. Мы знаем, что при суммирова- нии большого числа независимых случайных величии, подчиненных практически любым законам распределения, получается величина, приближенно распределенная по нормальному закону. Аналогично можно доказать, что при суммировании (взаимном наложении) большого числа ординарных, стационарных потоков с практически любым по- следействием получается поток, сколь угодно близкий к простейшему. Условия, которые должны для этого соблюдаться, аналогичны условиям центральной предельной теоремы, а именно — складываемые потоки должны оказывать иа cj мму приблизительно равномерно малое влияние.
1931 ПОТОК СОБЫТИЙ. ПРОСТЕЙШИЙ ПОТОК И ЕГО СВОЙСТВА 523 Не доказывая этого положения и даже ие формулируя математи- чески условия, которым должны удовлетворять потокипроиллюстри- руем его элементарными рассуждениями. Пусть имеется ряд незави- симых потоков Пр П2...Пя (рис. 19.3.2). «Суммирование» потоков состоит в том, что все моменты появления событий сносятся иа одну и ту же ось Of. как показано на рис. 19.3.2. п, --------------f--------т-------------- ---------------(----------------т------1, ъ ~—П —Т " г —гп Н— 4 Л —f ~Н~—'—гтп—h—П—*~t ' > т I * Т—r‘ Рис. 19.3.2. Предположим, что потоки Пр П2» • • сравнимы по своему влиянию на суммарный поток (т. е. имеют плотности одного порядка), а число их достаточно велико. Предположим, кроме того, что эти потоки стационарны и ординарны, ио каждый из них может иметь после- действие, и рассмотрим суммарный поток п п=2п, (19.3.1) А=1 иа оси Ot (рис. 19.3.2). Очевидно, что поток П должен быть ста- ционарным и ординарным, так как каждое слагаемое обладает этим свойством и оии независимы. Кроме того, достаточно ясно, что при увеличении числа слагаемых последействие в суммарном потоке» даже если око значительно в отдельных потоках, должно постепенно сла- беть. Действительно, рассмотрим иа оси Ot два неперекрывающкхся отрезка *и т2 (рис. 19.3.2). Каждая из точек, попадающих в эти 1) См. А. Я. X и и ч к н. «Математические методы теории массового обслу- живания». 1955.
624 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. W отрезки, случайным образом может оказаться принадлежащей тому или иному потоку, и по мере увеличения п удельный вес точек, при- надлежащих одному к тому же потоку (и. значит, зависимых), должен уменьшаться, а остальные точки принадлежат разным потокам и появляются на отрезках т2 независимо друг от друга. Достаточно естественно ожидать, что при увеличении п суммарный поток будет терять последействие и приближаться к простейшему. Г Рис. (9.3,3. На практике оказывается обычно достаточно сложить 4-ь- 5 пото- ков. чтобы получить поток» с которым можно оперировать как с простейшим. Просюйший поток играет в теории массового обслуживания осо- бенно важную роль. Во-первых, простейшие и близкие к простейшим потоки заявок часто встречаются на практике (причины этого изло- жены выше). Во-вторых, даже при потоке заявок, отличающемся от простейшего, часто можно получить удовлетворительные по точ- ности результаты, заменив поток любой структуры простейшим с той же плотностью. Поэтому займемся подробнее простейшим потоком и его свойствами. Рассмотрим на оси Ot простейший поток событий П (рис. 19.3.3) как неограниченную последовательность случайных точек. Выделим произвольный участок времени длиной т. В главе 5 (п°5.9) мы доказали, что при условиях I, 2 и 3 (стационарность, отсутствие последействия и ординарность) число точек, попадающих на участок х, распределено по закону Пуассона с математическим ожиданием (19.3.2) где X — плотность потока (среднее число событий, приходящееся на единицу времени). Вероятность того, что за время т произойдет ровно т событий, равна = 09.3.3) В частности, вероятность того, что участок окажется пустым (не произой- дет ни одного события), будет ВД = гЧ (19.3.4) Важной характеристикой потока является закон распределения длины промежутка между соседними событиями. Рассмотрим случай-
18 3] ПОТОК СОБЫТИЙ. ПРОСТЕЙШИЙ ПОТОК И ЕГО СВОЙСТВА 525 ную величину Т —промежуток времени между произвольными двумя соседними событиями в простейшем потоке (рис. 19.3.3) и найдем ее функцию распределения F(0 = P(T<0. Перейдем к вероятности противоположного события 1 — F(f) = P(7'>/). Это есть вероятность того, что на участке времени длиной t, начи- нающемся в момент tk появления одного из событий потока, не появится ни одного из последующих событий. Так как простейший поток не обладает последействием, то наличие в начале участка (в точке fA) какого-то события никак не влияет на вероятность появления тех или других событий в дальнейшем. По- s. ому вероятность P(T^t) можно вычислить по формуле (19.3.4) Рс(0 = е-Ч откуда I (/)=! — е~и (t > 0). (19.3.5) Дифференцируя, найдем плотность распределения (t > О). (19.3.6) Закон распределения с плот- ностью (19.3.6) называется показа- тельным законом, а величина т— е параметром. График плот- ности /(О представлен на рис, 19.3.4. Показательный закон, как мы увидим в дальнейшем, играет боль- шую роль в теории дискретных случайных процессов с непрерывным временем. Поэтому рассмотрим его подробнее. Найдем математическое ожидание величины Т„ распределенной по показательному закону: m, = M\T\=f.tf(f)dt=l О о или. интегрируя по частям, т, = |. (19.3.7) Дисперсия величины Т равна D, = £>(7’) = f Pflt)dt-^ = f №f-udt- 0 0
526 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ ГГЛ 16 откуда (19.3.8) (19.3.9) Докажем одно замечательное свойство показательного закона. Оно состоит в следующем: если промежуток времени, рас- пределенный по показательному закону, уже дли лея некоторое время т, то это никак не влияет на за- кон распределения оставшейся ч а ст и промежутка: он будет таким же, как и закон распределения всего промежутка Т. Для доказательства рассмотрим случайный промежуток времени Т с функцией распределения Р(7)=1 — е-1‘ (19.3.10) и предположим, что этот промежуток уже продолжается некоторое время т, т. е. произошло событие Т > т. Найдем при этом предпо- ложении условный закон распределения оставшейся части промежутка Ту = Т — т; обозначим его /^т) (/) ГТ)(О = Р(Г—с</|Г>г). (19.3.11) Докажем, что условный закон распределения FiX\t) не зависит от т и равен F(t). Для того чтобы вычислить найдем сна- чала вероятность произведения двух событий Т > т и Т — т < f. По теореме умножения вероятностей ((Г > т) (Г - т < 0 ) = Р (Г > т) Р (Т - т < (| Т > t) = = P(T>t)F<’\0. откуда Но событие (Г > т) (Т — *<t) равносильно событию т < Т < t -f г, вероятность которого равна Р (1 < Т < t + т) = F (t 4- т) — F (т). С другой стороны, Р(Г>т)=1-А(г), следовательно, ff. Л (* + т) — Т (т) ’ Г 1— Л(т)
19 4] нестационарный пуассоновский поток 527 откуда, согласно формуле (19.3.10), получим F*1 (О = --------------= 1 — е-и = F (t). что и требовалось доказать. Таким образом, мы доказали, что если промежуток времени Т распределен по показательному закону, то любые сведения о том, сколько времени уже протекал этот промежуток, не влияют на закон распределения оставшегося времени. Можно доказать; что показатель- ный закон—.единственный, обладающий таким свойством. Это свой- ство показательного закона представляет собой, в сущности, другую формулировку для «отсутствия последействия», которое является основным свойством простейшего потока. 19.4 Нестационарный пуассоновский поток Если поток событий нестационарен, то его основной характери- стикой является мгновенная плотность X(/). Мгновенной плотностью потока называется предел Отношения среднего числа событий, приходящегося на элементарный участок времени (7. к длине этого участка, когда последняя стремится к нулю: ).(<)= Нт =>п'(0, (19.4.1) лг-»о где m(t)— математическое ожидание числа событий на участке (0, /). Рассмотрим поток однородных событий, ординарный и без после- действия, но не стационарный, с переменной плотностью Х(/)- Такой поток называется нестационарным пуассоновским потоком. Это—первая ступень обобщения по сравнению с простейшим пото- ком. Легко показать методом, аналогичным примененному в п°5 9. что для такого потока число событий, попадающих на участок длины г. начинающийся в точке t0, подчиняется закону Пуассона «о) = (m=0. 1. 2. ...), (19.4.2) где а—математическое ожидание числа событий на участке от t0 до 70+т, равное f0 + T а= J Х(0*. (19.4.3) Здесь величина а зависит не только от длины т участка, но и от его положения на оси Of. Найдем для нестационарного потока закон распределения проме- жутка времени Т между соседними событиями. Ввиду иестационар- иости потока этот закон будет зависеть от того, где иа оси Of
528 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВ ТНИЯ ГГЛ JO расположено первое из событий. Кроме того, он Судет зависеть от вида функции Х(/). Предположим, что первое нз двух соседних событий появилось в момент ?0, и найдем при этом условии закон распределения времени Т между этим событием и последующи ц Ft.(Я = р<Т Найдем Р(Т>-/)— вероятность тбго. что на участке or tQ ди r t не появится ни одного события: foT f [ >(!)« P(T'^t)^e a - е '• откуда - f *(»)« /’,.(0=1—e (19 4 4) Дифференцируя, найдем плотность распределения - f Ц;)Л /,.</) = *(<> + ')« о (ОО). (19.4.5) Этот закон распределения уже не будет показательным. Вид его зависит от параметра fQ и вида функции X(f). Например, при линей- ном изменении Х(?) X (?) = a -j“ плотность (19.4.5) имеет вид bt1 /,.(/) = [«+5(/о+О]г °' (19 4.6) График этого закона при а = 0,4, Ь = 2 и ?0 = О,3 представлен на рис. 19.4.1.
19.5] ПОТОК С ОГРАНИЧЕННЫМ ПОСЛЕДЕЙСТВИЕМ (ПОТОК ПАЛЬМА) 529 Несмотря на то. что структура нестационарного пуассоновского потока несколько сложнее, чем простейшего, он очень удобен в прак- тических применениях: главное свойство простейшего потопа — отсут- ствие последействия — в нем сохранено. А именно, если мы зафикси- руем на оси Ot произвольную точку t0, то закон распределения //о(0 времени Т, отделяющего эту точку от ближайшего по времени будущего события, не зависит от того, что происходило на участке времени, предшествующем /0. и в самой точке f0 (т. е. появлялись ли ранее другие события и когда именно). 19.6. Поток с ограниченным последействием (поток Пальма) В предыдущем п° мы познакомились с естественным обобщением простейшего потока — с нестационарным пуассоновским потоком. Обобщением простейшего потока в другом направлении является поток с ограниченным последействием. Рассмотрим ординарный поток однородных событий (рис. 19.5.1). Этот поток называется потоком с ограниченным последействием Рис. 19.5.1. (или потоком Пальма), если промежутки времени между последо- вательными событиями Гр Т2. ... представляют собой независимые .случайные величины. Очевидно, простейший поток является частным случаем потока Пальма: в нем расстояния Тр Т2. ... представляют собой неза- висимые случайные величины, распределенные по показательному за- кону. Что касается нестационарного пуассоновского потока, то он не является потоком Пальма. Действительно, рассмотрим два соседних промежутка Тk и Tk+l в нестационарном пуассоновском потоке. Как мы видели в предыдущем п°. закон распределения промежутка между событиями в нестационарном потоке зависит от того, где этот про- межуток начинается, а начало промежутка Т>+1 совпадает с концом промежутка Тк; значит, длины этих промежутков зависимы. Рассмотрим примеры потоков Пальма. I. Некоторая деталь технического устройства (например, радио- лампа) работает непрерывно до своего отказа (выхода из строя), после чего она мгновенно заменяется новой. Срок безотказной работы детали случаен; отдельные экземпляры выходят из строя независимо
530 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 1Я друг от друга. При этих условиях поток отказов (или поток «восста- новлений») представляет собой поток Пальма. Если, к тому же, срок работы детали распределен по показательному закону, то поток Пальма превращается в простейший. 2. Группа самолетов идет в боевом порядке «колонна» (рис. 19.5.2) с одинаковой для всех самолетов скоростью V. Каждый самолет, кроме ведущего, обязан выдерживать строй, т. е. держаться на задан- ном расстоянии L от впереди идущего. Это расстояние, вследствие погрешностей радиодальномера, выдерживается с ошибками. Моменты Рис. 19.5.2. пересечения самолетами заданного рубежа образуют поток Пальма, так как случайные величины Тх = -у-; Т2 = ~. независимы. За- метим, что тот же поток не будет потоком Пальма, если каждый .из самолетов стремится выдержать заданное расстояние не от соседа, а от ведущего. Потоки Пальма часто получаются в виде выходных потоков си- стем массового обслуживания. Если на какую-либо систему поступает какой-то поток заявок, то ои этой системой разделяется иа два: по- ток обслуженных и поток не обслуженных заявок. Поток иеобслужениых заявок часто поступает на какую-либо дру- гую систему массового обслуживания, поэтому представляет интерес изучить его свойства. Основной в теории выходных потоков является теорема Пальма» которую мы сформулируем без доказательства. Пусть на систему массового обслуживания поступает по- ток заявок типа Пальма, причем заявка, заставшая все ка- налы занятыми, получает отказ {не обслуживается), Если при этом время обслуживания имеет показательный закон рас- пределения. то поток необслуженных заявок является также потоком типа Пальма. В частности, если входной поток заявок будет простейшим, то поток необслуженных заявок, не будучи простейшим, будет все же иметь ограниченное последействие. Интересным примером потоков с ограниченным последействием являются так называемые потоки Эрланга. Они образуются «про- сеиванием» простейшего потока.
19 5] ПОТОК С ОГРАНИЧЕННЫМ ПОСЛЕДЕЙСТВИЕМ (ПОТОК ПАЛЬМА) 531 Рассмотрим простейший поток (рис. 19.5.3) и выбросим из него каждую вторую точку (на рисунке выброшенные точки отмечены крестами). Оставшиеся точки образуют поток; этот поток называется потоком Эрланга первого порядка (3t)- Очевидно, этот поток О Рис. 19.5.3. есть лоток Пальма: поскольку независимы промежутки между со- бытиями в простейшем потоке, то независимы и величины Г,. Т2, .... получающиеся суммированием таких промежутков по два. Поток Эрланга второго порядка получится, если сохранить в простейшем потоке каждую третью точку, а две промежуточные выбросить (рис. 19.5,4). Рис. 19.54. Вообще, потоком Эрланга k-го порядка (Э*) называется по- ток, получаемый из простейшего, если сохранить каждую (А-Нно точку, а остальные выбросить. Очевидно, простейший поток можно рассматривать как поток Эрланга нулевого порядка (Эо). Рис. 19.5.5, Найдем закон распределения промежутка времени Т между’ сосед- ними событиями в потоке Эрланга fe-ro порядка (Э*)- Рассмотрим на оси Ot (рис. 19.5.5) простейший поток с интервалами 7'j. 7'2,_ Величина Т представляет собой сумму fe-j- 1 независимых случайных величин *+1 Г=2Т, (19 5 1)
532 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 где 7\, Т2......Tft+1 — независимые случайные величины, подчинен- ные одному и тому же показательному закону = (/>0). (19.5.2) Можно было бы найти закон распределения величины Т как компо- вицию (Л-+-1) законов (19.5.2). Однако проще вывести его элемен- тарными рассуждениями. Обозначим fk(f) плотность распределения величины Т для по- тока Эл; есть вероятность того, что величина Т примет зна- чение между t и t-\-dt (рис. 19.5.5). Это значит, что последняя точка промежутка Т должна попасть на элементарный участок (t, а предыдущие k точек простейшего потока — на учас- ток (0. t). Вероятность первого события равна \dt; вероятность вто- рого, на основании формулы (19.3.2), будет рМ = ^е-и- Перемножая эти вероятности, получим откуда = (/>0). (19.5.3) Закон распределения с плотностью (19.5.3) называется законом Эрланга k-го порядка. Очевидно, при k = 0 он обращается в пока- зательный = (/>0). (19.5.4) Найдем характеристики закона Эрланга /л (0: математическое ожи- дание т* и дисперсию Dk. По теореме сложения математических ожиданий m,= 2 т„ = (*+ 1)т0. где т0==-|- — математическое ожидание промежутка между событи- ями в простейшем потоке. Отсюда и,= *±1. (19.5.5) Аналогично по теореме сложения дисперсий D, = ^-. = (19.5.6)
IS.fi] ПОТОК С ОГРАНИЧЕННЫМ ПОСЛЕДЕЙСТВИЕМ (ПОТОК ПАЛЬМА) 533 Плотность Aft потока Эй будет обратна величине тк (19.5.7) Таким образом, при увеличении порядка патока Эрланга увеличи- ваются как математическое ожидание, гак и дисперсия промежутка времени между событиями, а плотность потока падает. Выясним, как будет изменяться поток Эрланга при k —>оо, если его плотность будет сохраняться постоянной? Пронормируем вели- чину Т так. чтобы ее математическое ожидание (и, следовательно, плотность потока) оставалось неизменным. Для этого изменим мас- штаб по оси времени и вместо Т рассмотрим величину т=-^. (19.5.8) Назовем такой поток нормированным потоком Эрланга k-го по- рядка. Закон распределения промежутка Т между событиями этого потока будет 7» (<) = а > 0). (19.5.9) где Ал = X (k + I), или 7.(0 =-^^(4*+1)0* е-1**11' (<>0). (19.5.10) Математическое ожидание величины Т, распределенной по закону (19.5.10), не зависит от k и равно I т* = т0 = у» где X — плотность потока, совпадающая при любом k с плотностью исходного простейшего потока. Дисперсия величины t равна О» ~ (*+*)’ — Xs (*+ I) (19.5.11) и неограниченно убывает с возрастанием k. Таким образом, мы приходим к выводу: при неог раниченном увеличении k нормированный поток Эрланга приближается •к регулярному потоку с постоянными интервалами, рав- ными у. Это свойство потоков Эрланга удобно в практических примене- ниях: оно дает возможность, задаваясь различными k. получить любую степень последействия: от полного отсутствия (й —0) до жесткой функциональной связи между моментами появления событий (fe = оо). Таким образом, порядок потока Эрланга может служить как бы «ме- рой последействия», имеющегося в потоке. В целях упрощения часто
534 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. 19 бывает удобно заменить реальный поток заявок, имеющий последей- ствие, нормированным потоком Эрланга с примерно теми же характе- ристиками промежутка между заявками: математическим ожиданием и дисперсией. Пр и мер.-В результате статистической обработки промежутков между заявками в потоке’получены оценки для математического ожидания и дис- персии величины Г: mt = 2 (-«ня). Dt — 0.8 {мин?). Заменить этот поток нормированным потоком Эрланга с теми же характс- р и:: игами. Решение. Имеем А = ——ОД Иа формулы (19-5.11) получим * + 1яД^=о5=Ь * = 4 Поток можно приближенно заменить нормированным потоком Эрланга чет- вертого порядка. 19.6. Время обслуживания Кроме характеристик входного потока заявок, режим работы си- стемы зависит еще от характеристик производительности самой с i- стемы: числа каналов п и быстродействия каждого канала. Одной из важнейших величин, связанных с системой, является время обслу- живания одной заявки Тоб. Эта величина может быть как не- случайной, так и случайной. Очевидно, более общим является слу- чайное время обслуживания. Рассмотрим случайную величину Тоб и обозначим G(t) ее функ- цию распределения: О(0 = Р(Тов<0, (19.6.1) a — плотность распределения: g(0 = O'(0- (19.6.2) Для практики особый интерес представляет случай, когда вели- чина 70б имеет показательное распределение (/>0). (19.6.3) где параметр р. — величина, обратная среднему времени обслуживания одной заявки: Особая роль, которую играет в теории массового обслуживания показательный закон распределения величины 7ов, связана с тем
1661 ВРЕМЯ ОБСЛУЖИВАНИЯ 535 свойством этого закона, которое было доказано в п° 19.4. В приме- нении к данному случаю оно формулируется так: если в како й-то момент /0 происходит обслуживание заявки, то за- кон распределения оставшегося времени обслужива- ния не зависит от того, сколько времени обслужи- вание уже продолжалось. На первый взгляд допущение о том, что время обслуживания распределено по показательному закону, представляется довольно искусственным. В ряде практических задач кажется естественнее пред- положить его либо совсем не случайным, либо распределенным по нормальному закону. Однако существуют условия, в которых время обслуживания действительно распределяется по закону, близкому к показательному. Это, прежде всего, все задачи, в которых обслуживание сводится к ряду «попыток», каждая из которых приводит к необходимому результату с какой-то вероятностью р. Пусть, например, «обслуживание» состоит в обстреле какой-то цели и заканчивается в момент ее поражения. Обстрел ведется неза- висимыми выстрелами с некоторой средней скорострельностью X вы- стрелов в единицу времени. Каждый выстрел поражает цель с вероят- ностью р. Чтобы не связывать себя необходимостью точного учета момента каждого выстрела, предположим, что они происходят в слу- чайные моменты времени и образуют простейший поток П с плот- ностью X (рис. 19.6.1). Рис. 19.6.1. Выделим мысленно из этого потока другой — поток «успешных», или «поражающих», выстрелов (они отмечены кружками на рис. 19.6.1). Выстрел будем называть «успешным», если он приводит к поражению цели (если только цель не была поражена ранее). Нетрудно убедиться, что успешные выстрелы тоже образуют простейший поток ГГ с плот- ностью А = Хр (исходный поток П—простейший, а каждый выстрел может стать поражающим, независимо от других, с вероятностью р). Вероятность того, что цель будет поражена до момента t. будет равна Оа) = Р(Тоб<0=1~е-Ч откуда плотность распределения времени «обслуживания» g(t)=Ae-“, а это есть показательный закон с параметром
636 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ (ГЛ. 19 Показательным законом распределения времени обстрела до пора- жения цели можно приближенно пользоваться и в случае, когда вы- стрелы ле образуют простейшего потока, а отделены, например, строго определенными промежутками времени если только ве- роятность поражения одним выстрелом р не очень велика. Для ил- люстрации приведем на одном и том же графике (рис. 19.6.2) функ- цию распределения момента поражающего выстрела (ступенчатая линия) для случая р = 0.4, /, = 1 н функцию распределения показа- тельного закона с парамет- ром р. = р = 0,4 (плавная кривая). Как видно на рис. 19.6.2, непрерывное показательное распределе- ние хорошо соответствует характеру нарастания функ- ции распределения для ди- скретного случая. Есте- ственно, если моменты вы- стрелов не будут строго № 4 5 6 Рис. 19.6.2. t определенными, соответст- вие с показательным законом будет еще лучше. Случай стрельбы — не единственный, когда обслу- живание осуществляется рядом «попыток». К такому типу часто можно отнести обслуживание по устранению неисправностей технических устройств, когда поиски неисправной детали пли узла осуществляются рядом тестов или проверок. К такпму же тип}' можно отнести задачи, где «обслуживание» заключается в обнаружении какого-либо объекта радиолокатором, если объект с какой-то вероятностью может быть обнаружен при каждом цикле обзора. Показательным законом хорошо описываются и те случаи, когда плотность распределения времени обслуживания по тем или иным причинам убывает при возрастании аргумента L Это бывает, когда основная масса заявок обслуживается очень быстро, а значительные задержки в обслуживании наблюдаются редко. Рассмотрим, например, окно почтового отделения, где продаются марки и конверты, а также принимаются почтовые отправления и переводы. Основная масса по- сетителей покупает марки или конверты и обслуживается очень быстро. Реже встречаются заявки на отправление заказных писем, они обслуживаются несколько дольше. Переводы посылаются еще реже и обслуживаются еще дольше. Наконец, в самых редких слу- чаях представители организаций отправляют сразу большое коли- чество писем. Гистограмма распределения времени обслуживания имеет вид, представленный на рис» 19.6,3. Так как плотность рас-
10 71 МАРКОВСКИЙ СЛУЧАЙНЫЙ ПРОЦЕСС 537 пределения убывает с возрастанием t, можно без особой погрешности выровнять распределение с помощью показательного закона, подобрав соответствующим образом его параметр у.. Разумеется, показательный закон не является универсальным законом распределения времени обслуживания. Часто время обслу- живания лучше описывается, например, законом Эрланга. Однако, к счастью, пропускная спо- собность и другие характе- ристики системы массового обслуживания сравнительно мало зависят от вида закона распределения времени об- служивания. а зависят, глав- ным образом, от его среднего значения Поэтому в теории массового обслужи- вания чаще всего пользуются допущением, что время об- служивания распределено по показательному закону. Эта гипотеза позволяет сильно Рис. 19.6.3. упростить математический аппарат, применяемый для решения задач массового обслуживания, и. в ряде случаев, получить простые аналитические формулы для ха- рактеристик .пропускной способности системы. 19.7. Марковский случайный процесс Допущения о пуассоновском характере потока заявок и о пока- зательном распределении времени обслуживания ценны тем. что позволяют применить в теории массового обслуживания аппарат так называемых марковских случайных процессов. Процесс, протекающий в физической системе, называется мар- ковским (или процессом без последействия), если для каждого мо- мента времени вероятность любого состояния системы в бу- дущем зависит только от состояния системы в настоящий момент (f0) и не зависит от того, каким образом система пришла в это состояние. Рассмотрим элементарный пример марковского случайного про- цесса. По оси абсцисс Ох случайным образом перемещается точка X. В момент времени £ = 0 точка X находится в начале координат (х==0) и остается твм в течение одной секунды. Через секунду бросается монета; если выпал герб—точка X перемещается на одну единицу длины вправо, если цифра — влево. Через секунду снова бросается монета н производится такое же случайное перемещение
538 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ |ГЛ 1Й и т. д. Процесс изменения положения точки (или, как говорят, «блуждания») представляет собой случайный процесс с дискретным временем (Г=0, 1, 2....) и счетным множеством состояний х0 —0; *1 = 1; x_t ——1; х2-2-, х_2~—2; ... Схема возможных переходов для этого процесса показана на рис. 19.7.1 Покажем, что этот процесс — марковский. Действительно, пред- ставим себе, что в какой-то момент времени система находится, например, в состоянии х, — на одну единицу правее начала коорди- нат. Возможные положения точки через единицу времени будут х0 и х2 с вероятностями 1/2 и 1/2; через две единицы — х_р хр х3 с вероятностями 1/4, 1/2. 1/4 и так далее. Очевидно, псе эти ве- роятности зависят только от того, где находится точка в данный момент tQ, и совершенно не зависят от того, как она пришла туда. Рис. 19.7.1, Рассмотрим другой пример. Имеется техническое устройство X, состоящее из элементов (деталей) типов а и Ь, обладающих разной долговечностью. Эги элементы в случайные моменты времени и неза- висимо друг от друга могут выходить из строя. Исправная работа каждого элемента безусловно необходима для работы устройства в целом. Время безотказной работы элемента — случайная величина, распределенная по показательному закону; для элементов типа а и Ь параметры этого закона различны и равны соответственно Хя и ле. В случае отказа устройства немедленно принимаются меры для вы- явления причин и обнаруженный неисправный элемент немедленно заменяется новым. Время, потребное для восстановления (ремонта) устройства, распределено по показательному закону с параметром (если вышел из строя элемент типа а) и (если вышел из строя элемент типа Ь').. В данном примере случайный процесс, протекающий в сисимз, есть марковский процесс с непрерывным временем и конечным мно- жеством состояний: .v —все элементы исправны, система работает, .у,—неисправен элемент типа а. система ремонтируется1), х,—неисправен элемент типа Ь, система ремонтируется. Схема возможных переходов дана па рис. 19.7.2. ’) Предполагается, что детали могут выходить из строя только во время р.>6ош системы; выход из строя одновременно двух или более детален прак- тически невозможен.
19 7] МАРКОВСКИЙ СЛУЧАЙНЫЙ ПРОЦЕСС 539 Действительно, процесс обладает марковским свойством. Пусть например, в момент t0 система находится в состоянии л0 (исправна). Так как время безотказной работы каждого элемента — показатель- ное *) то момент отказа каждого элемента в будущем не зависит от того, сколько времени он уже работал (когда поставлен). Поэтому вероятность того, что в будущем система останется в состоянии или уйдет из него, не зависит от «предыстории» процесса. Пред- положим теперь, что в момент t0 система находится в состоянии jq (неисправен элемент типа п). Так как время ремонта тоже показа- тельное. вероятность окончания ремонта в любое время после не зависит от того, когда начался ремонт и когда были поставлены остальные (исправные) элементы. —~Н , Г Таким образом, процесс является марковским. £о ------------- J< Заметим, что показательное распределение вре- ,_р мени работы элемента и показательное распреде- I ление времени ремонта — существенные условия. д 1 i без которых процесс не был бы марковским. Дей- (I Гг ствительно, предположим, что время исправной работы элемента распределено не по показатель- Рис. 197.2. пому закону, а по какому-нибудь другому — например, по закону' равномерной плотности на участке (fp г9). Эго значит, что каждый элемент с гарантией работает время а иа участке от Г, до t2 может выйти из строя в любой момент с одина- ковой плотностью вероятности. Предположим, что в.какой-то момент времени t0 элемент работает исправно. Очевидно, вероятность того, что элемент выйдет из строя на каком-то участке времени в будущем, зависит от того, насколько давно поставлен элемент, т. е. зависит от предыстории, л процесс не будет марковским. Аналогично обстоит дело и с временем ремонта Т/;- если оно не показательное и элемент в момент /0 ремонтируется, то оставшееся время ремонта зависит от того, когда он начался; процесс снова не будет марковским. Вообще показательное распределение играет особую роль в теории марковских случайных процессов с непрерывным временем. Легко убе- диться. что в стационарном марковском процессе время, в течение которого система остается в каком-либо состоянии, распределено всегда по показательному закону (с параметром, зависящим, вообще говоря, от этого состояния). Действительно, предположим, что в мо- мент tQ система находится в состоянии хк и до этого уже находились в нем какое-то время. Согласно определению марковского процесса, вероятность любого события в будущем не зависит от предыстории; в частности, вероятность того, что система уйдет из состояния хк ') Так говорят кратко вместо «имеет показательный закон распреде- ления».
540 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ. <9 в течение времени t, не должна зависеть от того, сколько времени система уже провела в этом состоянии. Следовательно, время пребы- вания системы в состоянии хь должно быть распределено по показа- тельному закону. В случае, когда процесс, протекающий в физической системе со счетным множеством состояний и непрерывным временем, является марковским, можно описать этот процесс с помощью обыкновенных дифференциальных уравнений, в которых неизвестными функциями яв. яются вероятности состояний Ps(0. Составление и ре- шение таких уравнений мы продемонстрируем в следующем п° на примере простейшей системы массового обслуживания. 19.8. Система массового обслуживания с отказами. Уравнения Эрланга Системы массового обслуживания делятся на два основных типа: а) системы с отказами, б) системы с ожиданием. В системах с отказами заявка, поступившая в момент, когда все каналы обслуживания заняты, немедленно получает отказ, поки- дает систему и в дальнейшем процессе обслуживания не участвует. В системах с ожиданием заявка, заставшая все каналы заня- тыми, не покидает систему, а становится в очередь и ожидает, пока «е освободится каком-нибудь канал. В настоящем п" мы рассмотрим систему с отказами как наиболее простую. Рис. [9.8.1. Пусть имеется n-канальная система массового обслуживания с отказами. Рассмотрим ее как физическую систему X с конечным множеством состояний: хр — свободны все каналы, де, —занят ровно один канал. хА —занято ровно А каналов, х„—заняты все п каналов. Схема возможных переходов данв на рус. 19.8.1. Поставим задачу: определить вероятности состояний системы рк(1) (А = 0, 1, .... ft) для любого момента времени £. Задачу будем решать при следующих допущениях: 1) поток заявок — простейший, с плотностью X;
19.81 СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОТКАЗАМИ 541 2) время обслуживания 70б — показательное, с параметром р.= — = (*>0). (19.8.1) Заметим, что параметр р. в формуле (19.8.1) полностью аналогичен параметру X показательного закона распределения промежутка Т между соседними событиями простейшего потока: /(/)==X<?-W (/>0). (19.8.2) Параметр X имеет смысл «плотности потока заявок». Аналогично, величину р. можно истолковать как «плотность потока освобождений» занятого канала. Действительно, представим себе канал, непрерывно занятый (бесперебойно снабжаемый заявками); тогда» очевидно, в этом канале будет идти простейший поток освобождений с плотностью р.. Так как обв потока — заявок и освобождений — простейшие, про- цесс, протекающий в системе, будет марковским. Рассмотрим возможные состояния системы и их вероятности Ро(0. Pi (О.....рМ- Очевидно, для любого момента времени (19.8.3) (19.8.4) 2реи = 1. Составнм дифференциальные уравнения для всех вероятностей (19.8.3), начиная с ро(0. Зафиксируем момент времени t и найдем вероятность г находиться в со- А1(*+Д0 того, что в момент f-Af система будет стоянии х0 (все каналы свободны). Это может про- изойти двумя способами (рис. 19.8.2): А— в момент t система находилась в состоя- нии х0, а за время Lt не перешла из нее в Xj (не пришло ни одной заявки), В — в момент t система находилась в состоя- Рис. 19.8.2. нии Хр а за время Lt канал освободился, и система перешла в со- стояние Xq1). Возможностью «перескока» системы через состояние (например, из х2 в х0 через хг) за малый промежуток времени можно пренебречь» как величиной высшего порядка малости по сравнению сР(А) и Р(В)2). По теореме сложения вероятностей имеем роа+дп«р(Л)+^(^)- (19.8.5) ‘) На рис. 19.8.2 возможные способы появления состояния х0 в момент показаны стрелками, направленными в х0; стрелка, направленная из х0 в Х|. перечеркнута в знак того» что система не должна выйти из состоя- ния хв. а) В дальнейшем мы все время будем пренебрегать слагаемыми высших порядков малости по сравнению с Д£ В пределе при Д/-»0 приближенные равенства перейдут б точные.
542 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ 16 Найдем вероятность события А по теореме умножения. Вероят- ность того, что в момент t система была в состоянии х0, равиа ро(0. Вероятность того, что за время Д/ не придет ни одной заявки, равна е~лА*. С точностью до величин высшего порядка малости 1 — ХД£. (19.8.6) Следовательно, Р(Л)^ро(0(1—ХД/). Найдем Р(В). Вероятность того, что в момент t система была в состоянии Хр равна рх (0. Вероятность того, что за время Д/ канал освободится, равна 1 — с точностью до малых величин выс- шего порядка l—e^ ^y.Lt. Следовательно, Р(В)«А(0рДг. Отсюда А V+~ Ро V) (1 — > +М>1 (О Перенося p0(t) в левую часть, деля иа Д/ и переходя к пределу при д/—>0, получим дифференциальное уравнение для ро(0: ^Г1 = -Хр0И + р.р1«!). (19.87) Аналогичные дифференциальные уравнения могут быть составлены и для других вероятностей состояний. Возьмем любое А(0<А<п) и найдем вероятность рА(/-|-ДО того, что в момент /-|-Д£ система будет в состоянии хА (рис. 19.8.3). Эта вероятность вычисляется как вероят- ность суммы уже ие двух, а трех событий (по числу стрелок, направленных в состояние xk)~. А—в момент t система была в состоянии хк (занято k каналов), а за время Lt не перешла Рис. 19.8.3. из Него ни в хл+х, ни в xk_x (ии одна заявка не поступила, ни один канал не освободился); В — в момент t система была в состоянии хь_х (занято k—1 каналов), а за время Lt перешла в хк (пришла одна заявка); С — в момент t система была в состоянии xft+1 (занято А-|-1 каналов), а за время Lt один из каналов освободился. Найдем Р(Л). Вычислим сначала вероятность того, что за время Lt ие придет ни одна заявка и не освободится ни один из каналов: ,-Х Ы ^-Р-А/)*---£-(х+*И)А<. Пренебрегая малыми величинами высших порядков, имеем е-V +*W аг « 1 — (X + Л|0 Lt,
198J СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОТКАЗАМИ 543 откуда Р(Л)«р„(0[1—а+адда Аналогично Р(В) д/, It Pk (t 4- ДО « Pk(f) [ 1 - a + йр) до + P,^ (0 x д/ + Ч-Ра+1(0(Л4-1)|1ДА Отсюда получаем дифференциальное уравнение для рк (0(0 < k < п): ~~ ~ W — ^ *+" Л!А> Ра (0+(Л 4-1) V-P k+i (О Составим уравнение для последней вероятности pn(t) (рис. 19.8.4). Имеем у-> р„а4-до^рдоа— прдо4-ря-1(О>-^. где 1 — пр.Д£ — вероятность того, что за время Д£ р с igfl4 не освободится ни один канал; ХД£— вероятность <- того, что за время Д^ придет одна заявка. Получаем дифференциаль- ное уравнение для p„.(t): =‘хР—1 ОТ — "HP. (0. Таким образом, получена система дифференциальных уравнений для вероятностей pi(t), p2(t).рл(0: •^P-=-W)+m>,OT. ~dt ~ = ^Р*-1ОТ — (* + *(") Рп (f) + (* + OhPj.iW J.О.О) (0<А<л), = *Рл-1 И — «НА. (О- Уравнения (19.8.8) называются уравнениями Эрланга. Интегри- рование системы уравнений (19.8.8) при начальных условиях ^(0)=!; А(0)= ... »=-л.(0)^0
544 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ (ГЛ 19 (в начальный момент все каналы свободны) даст вависпмость рк \t) для любого k. Вероятности pk(t) характеризуют среднюю загрузку системы и ее изменение С течением времени. В частности. p,t (/) есть вероятность того, что заявка, пришедшая в мамент t, застанет все каналы занятыми (получит отказ): Рс,к==Р»(0- Величина q(t) = 1—pn(t) называется относительной пропу- скной способностью системы. Для данного момента t это есть отно- шение среднего числа обслуженных за единицу времени заявок к среднему числу поданных. Система линейных дифференциальных уравнений (19.8.8) сравни- тельно легко может быть проинтегрирована при любом конкретном числе каналов «. Заметим, что при выводе уравнений (19.8.8) мы нигде не пользо- вались допущением о том. что величины Аир- (плотности потока заявок и «потока освобождений») постоянны. Поэтому уравнения (19.8.8) остаются справедливыми и для зависящих пт времени A(f). р.(О» лишь бы потоки событий, переводящих систему из состояния в состояние, оставались пуассоновскими (без этого прэцссс не б\.кг марковским). 19.9. Установившийся режим обслуживания. Формулы Эрланга Рассмотрим «-канальную систему массового обслуживания с отка- зами. на вход которой поступает простейший поток заявок с плот- ностью А; время обслуживания—показательное, с параметром р. Воз- никает вопрос, будет ли стационарным случайный процесс, протекаю- щий в системе? Очевидно, что в начале, сразу после включения системы в работу, протекающий в пей процесс еще не будет стацио- нарным: в системе массового обслуживания (как и в любой динами- ческой системе) возникнет так называемый «переходный», нестацио- нарный процесс. Однако, спустя некоторое время, этот переходный процесс затухнет» и система перейдет на стационарный, так называе- мый «установившийся» режим, вероятностные характеристики кото- рого уже не будут зависеть от времени. Во многих задачах практики нас интересуют именно характери- стики предельного установившегося режима обслуживания. Можно доказать, что для любой системы с отказами такой пре- дельный режим существует, т. е. что при /—>оо все вероятности Ли (О- А (0» • Рп(0 стремятся к постоянным пределам pQ, pv ... ..., рп. а все их производные — к нулю. Чтобы найти предельные вероятности р0, pv .... рп (вероятности состояний системы в установившемся режиме), заменим в уравнениях (19.8.8) все вероятности pk(f) (О^А-^л) их пределами р*. а все
19.9] УСТАНОВИВШИЙСЯ РЕЖИМ ОБСЛУЖИВАНИЯ. ФОРМУЛЫ ЭРЛАНГА 545 производные положим равными нулю. Получим систему уже не диф- ференциальных, а алгебраических уравнений — Хр + |»р, = 0, Хр(| — (X -|- fi) pj -|- 2р.р2 = О, хР»-1 — (х+М р»-н* +1) м>»+1 = 0 (0<А<п), ( ’ ’ ' Хр„_2 — [X + (п — 1) р] р„_1 + прр„ = 0. Xp„_, —n|ip„ = 0. К этим уравнениям необходимо добавить условие 2р* = 1. (19.9.2) *=0 Разрешим систему (19.9.1) относительно неизвестных р0, ... .... рп. Из первого уравнения имеем Р1=уРо- (19.9.3) Из второго, с учетом (19.9.3), р2 = [— хРи + (Х + 9) Р11 = = "gj[—^РоЧ—^"Ро+^л] = ^гРо! (19.9.4) аналогично из третьего, с учетом (19.9.3) и (19.9.4), 1 / X2 . X8 . Xs _ \ X8 Рз — Зм \ и Pv I- 2р.8 Pq ' ' 2^oJ 3| из Ро> и вообще, для любого А w Xй ₽,= *йл/’0’ (19-95) Введем обозначение А = в (19.9.6) и назовем величину а приведенной плотностью потока заявок. Это есть не что иное, как среднее число заявок, приходя- щееся на среднее время обслуживания одной заявки. Действительно» X ч а = — = Ат,- р. об 18 Теория вероятностей
646 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ (ГЛ 10 где /я,об=Л1 [7о0] — среднее время обслуживания одной заявки. В новых обозначениях формула (19.9.5) примет аид Pfc — kl Ро- (19.9.7) Формула (19.9.7) выражает все вероятности pk через р0. Чтобы вы- разить их непосредственно через аил. воспользуемся условием (19.9.2). Подставив в него (19.9.7), получим п п V V Рк — w — !• »=о »=о откуда Ро = ~Г— • (19.9-8) V °* л=о Подставляя (19-9.8) в (19.9.7). получим окончательно Рк-=-^— (0<А<л). (19.9.9) Формулы (19.9.9) называются формулами Эрланга. Они дают предельный закон распределения числа занятых каналов в зависимости от характеристик потока заявок и производительности системы обслу- живания. Полагая в формуле (19.9.9) k — n, получим вероятность отказа (вероятность того, что поступившая заявка найдет все ка- налы запятыми): ап Р„» = Ри = -^—- (19.9.10) 41 о* *-0 В частности, дли одноканалыюй системы (л — 1) ^ОТК Р\ ~ J _|_3 • (19.9.11) а относительная пропускная способность ?=l-Pm = T4^’- (19.9.12) Формулы Эрланга (19.9.9) и их следствия (19.9.10) — (19.9.12) выведены нами для случая показательного распределения времени
19Э] УСТАНОВИВШИЙСЯ режим обслуживания, формулы эрланга 547 обслуживания. Однако исследования последних лет1) показали, что эти формулы остаются справедливыми и при любом законе распре- деления времени обслуживания, лишь бы входной поток был про- стейшим. Пример 1. Автоматическая телефонная станция имеет 4 линии связи. На станцию поступает простейший поток заявок с плотностью А = 3 (вызова в минуту). Вызов, поступивший в момент, когда все линии заняты, получает отказ2). Средняя длительность разговора 2 минуты. Найти: а) вероятность отказа; б) среднюю долю времени, в течение которой телефонная станция вообще ие загружена. Решение. Имеем /л,ов == 2 (мин); р ==0,5 (разг/мин), а) По формуле (19.9.10) получаем ОвЛ«.6. Р- ,о«=А“ 0,47. б) По формуле (19.9.8) Ро = » 0,0087. Несмотря иа то, что формулы Эрланга в точности справедливы только при простейшем потоке заявок, ими можно с известным при- ближением пользоваться и в случае, когда поток заявок отличается от простейшего (например, является стационарным потоком с огра- ниченным последействием). Расчеты показывают, что замена произ- вольного стационарного потока с не очень большим последействием простейшим потоком той же плотности X, как правило, мало влияет на характеристики пропускной способности системы. Наконец, можно заметить, что формулами Эрланга можно при- ближенно пользоваться и в случае, когда система массового обслу- живания допускает ожидание заявки в очереди, но когда срок ожи- дания мал по сравнению со средним временем обслуживания одной заявки. Пример 2. Станция наведения истребителей имеет 3 канала. Каждый канал может одновременно наводить один истребитель на одну цель. Среднее время наведения истребителя на цель _ = 2 лик. Поток целей — простей- ший, с плотностью А = 1,5 (самолетов в минуту). Станцию можно считать «системой с отказами», так как цель, по которой наведение не началось в момент, когда она вошивзону действия истребителей, вообще остается не *) См. Б. А. Севастьянов, Эргодическая теорема для марковских процессов и ее приложение к телефонным системам с отказами. Теория ве- роятностей и ее применения, т. 2, вып. I. 1957. 2) Предполагается, что вторичные вызовы абонентов, получивших отказ, не нарушаю г пуассоновского характера потока заявок.
548 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ 19 атакованной. Найтн среднюю долю целей, проходящих через зону действия не обстрелянными. Решение. Имеем р = = 0,5: X == 1,5; а = — = 3. По формуле (19.9.10) З3 Вероятность отказа » 0.346; она же выражает среднюю долю необстрелян- ных целей. Заметим, что в данном примере плотность потока целен выбрана такой, чю при их регулярном следовании одна за другой через определенные интер- валы и при точно фиксированном времени наведения = 2 мин номиналь- ная пропускная способность системы достаточна для того, чтобы обстрелять все без исключения цели. Снижение пропускной способности происходит из-за наличия случайных сгущений и разрежений в потоке целей, которые нельзя предвидеть заранее. 19.10. Система массового обслуживания с ожиданием Система массового обслуживания называется системой с ожида- нием, если заявка, заставшая все каналы занятыми, становится в оче- редь и ждет, пока не освободится какой-нибудь канал. Если время ожидания заявки в очереди ничем не ограничено, то система называется «чистой системой с ожиданием». Если оно огра- ничено какими-то условиями, то система называется «системой сме- шанного типа». Это промежуточный случай между чистой системой с отказами и чистой системой с ожиданием. Для практики наибольший интерес представляют именно системы смешанного типа. Ограничения, наложенные на ожидание, могут быть различного типа. Часто бывает, что ограничение накладывается на время ожи- дания заявки в очереди; считается, что оно ограничено сверху каким-то сроком 7ОЖ, который может быть как строго определенным, так и случайным. При этом ограничивается только срок ожидания в очереди а начатое обслуживание доводится до конца, независимо от того, сколько времени продолжалось ожидание (например, клиент в парикмахерской, сев в кресло, обычно уже не уходит до конца обслуживания). В других задачах естественнее наложить ограниче- ние не на время ожидания в очереди, а на общее время пребы- вания заявки в системе (например, воздушная цель может пробыть в зоне стрельбы лишь ограниченное время и покидает ее независимо от того, кончился обстрел или нет). Наконец, можно рас- смотреть и такую смешанную систему (она ближе всего к типу тор- говых предприятий, торгующих предметами не первой необходимости), когда заявка становится в очередь только в том случае, если длина
1610] СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОЖИДАНИЕМ 549 очереди не слишком велика. Здесь ограничение накладывается на число заявок в очереди. В системах с ожиданием существенную роль играет так назы- ваемая «дисциплина очереди». Ожидающие заявки могут вызываться на обслуживание как в порядке очереди (раньше прибывший раньше и обслуживается), так и в случайном, неорганизованном порядке. Существуют системы массового обслуживания «с преимуществами», где некоторые заявки обслуживаются предпочтительно перед другими («генералы и полковники вне очереди»). Каждый тип системы с ожиданием имеет свои особенности и свою математическую теорию. Многие из них описаны, например, в книге Б- В. Гнеденко «Лекции по теории массового обслуживания». Здесь мы остановимся только на простейшем случае смешанной системы, являющемся естественным обобщением задачи Эрланга для системы с отказами. Для этого случая мы выведем дифференциаль- ные уравнения, аналогичные уравнениям Эрланга, и формулы для вероятностей состояний в установившемся режиме, аналогичные фор- мулам Эрланга. Рассмотрим смешанную систему массового обслуживания X с п каналами при следующих условиях. На вход системы поступает простейший поток заявок с плотностью X. Время обслуживания одной заявки То6 — показательное, с параметром р = ——. Заявка, застав- шая все каналы занятыми, становится в очередь и ожидает обслужи- вания; время ожидания ограничено некоторым сроком Гож; если до истечения этого срока заявка не будет принята к обслуживанию, то она покидает очередь и остается необслужениой. Срок ожидания 'Т,1Ж будем считать случайным и распределенным по показательному закону h (П = (I > 0). где параметр * — величина, обратная среднему сроку ожидания: Параметр м полностью аналогичен параметрам X и р потока за- явок и «потока освобождений». Его можно интерпретировать, как плотность «потока уходов» заявки, стоящей в очереди. Действительно, представим себе заявку, которая только и делает, что становится в очередь и ждет в ней, пока не кончится срок ожидания 7OJK, после чего уходит и сразу же скова становится в очередь. Тогда «поток уходов» такой заявки из очереди будет иметь плотность v. Очевидно, при V—>схэ система смешанного типа превращается в чистую систему с отказами; при v—>0 она превращается в чистую систему с ожиданием.
550 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ [ГЛ 19 Заметим, что при показательном законе распределения срока ожи- дания пропускная способность системы не зависит от того, обслужи- ваются ли заявки в порядке очереди или в случайном порядке: для каждой заявки закон распределения оставшегося времени ожидания не зависит от того, сколько времени заявка уже стояла в очереди. Благодаря допущению о пуассоновском характере всех потоков событий, приводящих к изменениям состояний системы, процесс, про- текающий в ней, будет марковским. Напишем уравнения для вероят- ностей состояний системы. Для этого, прежде всего, перечислим эти состояния. Будем их нумеровать не по числу занятых каналов, а по числу связанных с системой заявок. Заявку будем называть «связанной с системой», если она либо находится в состоянии обслу- живания, либо ожидает очереди. Возможные состояния системы будут: х0 — ни один канал не ванят (очереди нет), xt — занят ровно один канал (очереди нет), хл— занято ровно k каналов (очереди нет), хп — заняты все п каналов (очереди нет), хпл1—заняты все п каналов, одна заявка стоит в очереди, хп+з — заняты все п каналов, s заявок стоят в очереди. Число заявок 5, стоящих в очереди, в наших условиях может быть сколь угодно большим. Таким образом, система X имеет беско- нечное (хотя и счетное) множество состояний. Соответственно, число описывающих ее дифференциальных уравнений тоже будет беско- нечным. Очевидно, первые п дифференциальных уравнений ничем не будут отличаться от соответствующих уравнений Эрланга: ^- = -^0 (0 + ^(0. tip. (О —at—— (ХЧ- (0+ (Л+ 1)НР*+](0» —= *Рп-2 (0 — + (* — 1) Pl Р„-1 (0 + Пу.р„ (<). Отличие новых уравнений от уравнений Эрланга начнется при k = n. Действительно, в состояние хп система с отказами может
И) JOI СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОЖИДАНИЕМ 551 перейти только нз состояния х0_р что касается системы с ожида- нием, то она может перейти в состояние хп не только из хп-1> но н из хя+1 (все каналы заняты, одна заявка стоит в очереди). Составим дифференциальное уравнение для рл(0. Зафиксируем мо- мент t и найдем рп(/-|-ДО— вероятность того, что система в момент t-^-Lt будет в состоянии хп. Эго может осуществиться тремя спо- собами: 1) в момент t система уже была в состоянии хп, а за время Lt нс вышла из него (не пришла ни одна заявка и ни один из каналов не освободился); 2) в момент t система была в состоянии х„_1, а за время Lt перешла в состояние хп (пришла одна заявка); 3) в момент t система была в состоянии хл^ (все каналы заняты, одна заявка стоит в очереди), а за время Lt перешла в хп (либо освободился один капал и стоящая в очереди заявка заняла его, либо стоящая в очереди заявка ушла в связи с окончанием срока). Имеем: р„ И+ДО ~ Р„ (О (1 — X и — пц до + + Pn-i (О ХД« + р„+1 (О (пн + v) Д . откуда =-(Х+пн) р. ОТ+ОТ+(«н+’) А.+1 (О- Вычислим теперь ря+5(/~|-Д0 при любом s > 0 — вероятность того, что в момент все п каналов будут заняты и ровно s заявок будут стоять в очереди. Это событие снова можег осуще- ствиться тремя способами: I) в момент t система уже была в состоянии xn+s, а за время Lt это состояние не изменилось (значит, ни одна заявка не пришла, нм один канал не освободился и ни одна из 5 стоящих в очереди заявок нс ушла); 2) в момент t система была в состоянии x„+s_l, а за время Lt перешла в состояние хп+5 (г. е. пришла одна заявка); 3) в момент / система была в состоянии хя+ж+р а за время Lt перешла в состояние х„^л (для этого либо один из каналов должен освободиться, и тогда одна из s 4~ 1 стоящих в очереди заявок зай- мет его, либо одна ьз стоящих в очереди заявок должна уйгп в связи с окончанием срока). Следовательно; р,1т, (' + ДО ~ ,, (О (1 — X д< — «!» Д( — S’ ДО + т 1 ОТ X Д/ + Р„+5+1 (О [«!> + (s + О '1 ДО откуда —= - V- -г ":l + s -X Рп,, <0 т + Хр„м_, -j-lap 4-(s +-1) v] p„1J+i ОТ-
652 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ |ГЛ. tB Таким образом, мы получили для вероятностей состояний сисхему бесконечного числа дифференциальных уравнений: ^1=-Хро(0 + рр1(0. = *Ро (t) — (X + р) р, (0 + 2№ (0. —— = ^P»-i (О — (^ + Лр)Pt (О + (Л+1) рр»4i (О (1 А л — 1), ) = ^Рл-i (О—+ лр)Рп(*>Ч-(лиН-1')Pn+i(О' (19.10.1) = Хр„4,_, (0 — (X + Яр + SV) p„+s(O + -I- 1"Р + (« + 1) Ч Р„4 14 , (0. Уравнения (19.10.1) являются естественным обобщением уравнений Эрланга на случай системы смешанного типа с ограниченным време- нем ожидания. Параметры X, р., v в этих уравнениях могут быть как постоянными, так и переменными. При интегрировании системы (19.10.1) нужно учитывать, что хотя теоретически число возможных состояний системы бесконечно, но на практике вероятности ря+,(О при возра- стании s становятся пренебрежимо малыми, и соответствующие урав- нения могут быть отброшены. Выведем формулы, аналогичные формулам Эрланга, для вероятно- стей состояний системы при установившемся режиме обслуживания (при /—>схэ). Из уравнений (19.10.1), полагая все рк (й = 0, ..., п, ...) постоянными, а все производные—равными нулю, получим систему алгебраических уравнений: — = 0- хРо — (> +11) Pi + ty-Pi = 0- Хре_, — (X + ps + (Л + 1)рр6+1 = 0 (1 <Л<я —1). ХРл-1 — (X + яр) Р„ + (яр + v) р„+1 = 0, (19.10.2) кРл+.-1 — (X + яр + sv) pn+s + + l»P + (s + О Ч P„+J+l = 0-
19 10] СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОЖИДАНИЕМ 553' К ним нужно присоединить условие: = (19.10.3) *=« Найдем решение системы (19.10.2). Для этого применим тог же прием, которым мы пользовались в случае системы с отказами: разрешим первое уравнение относи- тельно рх. подставим во второе, и т. д. Для любого как и в случае системы с отказами, получим: (1910л) Перейдем к уравнениям для й>л = s^l). Тем же спо- собом получим; Рги\ л!|лп(Л[1-|-*) ’ ___________ — nlF«(n!A-W('4Jl+2v) ’ и вообще при любом s^>l р„„ =--------------------• (19.10.5) nlRn Ц (ЛИ-+ »**) В обе формулы (19.10.4) и (19.10.5) в качестве сомножителя входит вероятность р0. Определим ее нз условия (19.10.3). Под- ставляя в него выражения (19.10.4) и (19.10.5) для й<1я и s 1» получим: 1л <» V . V к"+ Л=о erlnlfi0 I j (лр 4- rnv) откуда _________1_____________________ Ро п со " Ыц* й=о г в=1 nlp.n JJ (П(1nrv) (19.10.6)
554 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ (ГЛ. 18 Преобразуем выражения (19.10.4), (19.10.5) в (19.10.6), вводя в них вместо плотностей к и v «приведенные» плотности; к 1 (19.10.7) Параметры аир выражают соответственно среднее число заявок и среднее число уходов заявки, стоящей в очереди, приходящиеся на среднее время обслуживания одной заявки. В новых обозначениях формулы (19.10.4), (19.10.5) и (19.10.6) примут вид: а* Рл = -^Ро (0<й<л); (19.10.8) ап ~пГРо п ("+ »м=1 (s>D: (19.10.9) Ро = (19.10.10) П (n+m₽) Подставляя (19.10.10) в (19.10.8) и (19.10.9), получим оконча- тельные выражения для вероятностей состояний системы: "-------------- (0<*<П); (19.10.11) V а* ап ул а5 2л ki+ ni *а0 4=1 J](n + m₽) m-l ал а3 п! я П (л + т₽) Р^ = -ц~----------~-----------------(«>!) (19.10.12) ул а* ая ул а3 Zj If “Г ’пГ м *=i IJ(n + mP) »н=1
ig Ю1 СИСТЕМА МАССОВОГО ОБСЛУЖИВАНИЯ С ОЖИДАНИЕМ 555 Зная вероятности всех состояний системы, можно легко опреде- ли ib другие интересующие нас характеристики, в частности, вероят- ность Ри того, что заявка покинет систему необслуженной. Опреде- лим ее из следующих соображений: при установившемся режиме вероятность Ри того, что заявка покинет систему необслуженной. есть ие что иное, как отношение среднего числа заявок, уходя- щих из очереди в единицу времени, к среднему числу заявок, по- ступающих в единицу времени. Найдем среднее число заявок, уходящих из очереди в единицу времени. Для этого сначала вычи- слим математическое ожидание ms числа заявок, находящихся в очереди: ап V So' пГ * « «-1 П(п+т?) m, = M[sl = V>,.+j=—-------------------------------(19.10.13) а,с ол V1 а1 >«1 Д(п4-тИ ГЛ= I Чтобы получить Рв. нужно тз умножить на среднюю «плотность уходов» одной заявки * и разделить на среднюю плотность заявок л, т. е. умножить на коэффициент Получим: II (n+m₽) m —1 (19.10.14) Ц (п + «Ч») Относительная пропускная способность системы характеризуется вероятностью того, что заявка, попавшая в систему, будет обслужена: 9 = 1 —Р.- Очевидно, что пропускная способность системы с ожиданием, при тех же А и р, будет всегда выше, чем пропускная способность системы с отказами: в случае наличия ожидания иеобслужеиными
556 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ !гл 19 уходят ие все заявки, заставшие п каналов занятыми, а только не- которые. Пропускная способность увеличивается при увеличении среднего времени ожидания ш<ож = —. Непосредственное пользование формулами (19.10.11), (19.10.12) и (19.10.14) несколько затруднено тем, что в них входят бесконеч- ные суммы. Однако члены этих сумм быстро убывают ’). Посмотрим, во что превратятся формулы (19.10.11) и (19.10.12) при 0—>оо и 0->0. Очевидно, что при 0->сю система с ожида- нием должна превратиться в систему с отказами (заявка мгновенно уходит из очереди). Действительно/ при 0 —>оо формулы (19.10.12) дадут нули, а формулы (19.10.11) превратятся в формулы Эрланга для системы с отказами. Рассмотрим другой крайний случай: чистую систему с ожиданием (0—>0). В такой системе заявки вообще ие уходят из очереди, и поэтому Рн = 0: каждая заявка рано или поздно дождется обслужи- вания. Зато в чистой системе с ожиданием не всегда имеется пре- дельный стационарный режим при t—>oo. Можно доказать, что такой режим существует только при а < л. т. е. когда среднее число заявок, приходящееся на время обслуживания одной заявки, не выходит за пределы возможностей n-канальной системы. Если же а^п, число ааявок, стоящих в очереди, будет с течением времени неограниченно возрастать. Предположим, что а<л, и найдем предельные вероятности р* (0 С k Сп) Для чистой системы с ожиданием. Для этого положим в формулах (19.9.10), (19.9.11) и (19.9.12) 0->0. Получим: или, суммируя прогрессию (что возможно только при а < л). 1 рс=_------------- х'' а* ая+1 21 А! I" и! (и — а) *=0 (19.10.15) ) Для грубой оценки ошибки, происходящей от отбрасывания всех чле- нов сумм, начиная с r-го, можно воспользоваться формулами: jU * г! П («+«₽)
win СИСТЕМА СМЕШАННОГО ТИПА 557 Отсюда, пользуясь формулами (19.10.8) и (19.10.9), найдем в» pt — ——------—---------- (0<Л^и). (19.10.16) ygi+. °**' А! ' nl (R —а) fc-1 п аналогично для k = п $ (s 0) ant-S Pn<,=-i--------—----------- (19.10.17) у, а» ft! ‘ ril (я — а) ft=0 Сроднее число заявок, находящихся в очереди, определяется из фор мулы (19.10.13) при £->0: апн -44Г У»1 п! (П —а) (19.10.18) Пример 1. На вход трехканальной системы с неограниченным време- нем ожидания поступает простейший поток заявок с плотностью А = 4 (заявки в час). Среднее время обслуживания одной заявки /п/о£ = 30 мин. Определить, существует ли установившийся режим обслуживания; если да, то найти вероятности р0, рь р2, Рз, вероятность наличия очереди и среднюю длину очереди rns. Решение. Имеем м —---------— 2; а = — = 2. Так как а < п, установив- шей------------------------** шлйся режим существует. По формуле (19.10.16) находим ,„ = ±«0.111; „-±«0,222; „-±«0.222; „=±«0.148. Вероятность наличия очереди: РОч = 1 — (А + А + А + а) = 0.297. Средняя длина очереди по формуле (19.10.18) будет ms к 0,89 (заявки). 19.11. Система смешанного типа с ограничением по длине очереди В предыдущем п° мы рассмотрели систему массового обслужива- ния с ограничением по времени пребывания в очереди. Здесь мы рассмотрим систему смешанного типа с другим видом ограничения ожидания —по числу заявок, стоящих в очереди. Предположим, что
658 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ 1ГЛ 19 ваявка, заставшая все каналы занятыми, становится в очередь, только если в ней находится менее т заявок; если же число заявок в оче- реди равно т (больше т оно быть не может), то последняя при- бывшая заявка в очередь не становится и покидает систему необ- служенной. Остальные допущения — о простейшем потоке заявок н о показательном распределении времени обслуживания — оставим прежними. Итак, имеется «-канальная система с ожиданием, в которой коли- чество заявок, стоящих в очереди, ограничено числом т. Составим дифференциальные уравнения для вероятностей состояний системы. Заметим, что в данном случае число состояний системы будет конечно, так как обшее число заявок, связанных с системой, не может превышать п-^-т (п обслуживаемых и т стоящих в очереди). Перечислим состояния системы; х,. — все каналы свободны, очереди нет, — занят одни канал» » » , х* —занято k .каналов, » » , хл_]—занято п—1 каналов. » » , х„ — заняты все п каналов, * » . .— заняты все п каналов, одна заявка стоит в очереди. хя+да—заняты все п каналов, т заявок стоит в очереди. Очевидно, первые л уравнений для вероятностей p0(t). ... pn_j(O будут совпадать с уравнениями Эрланга (19.8.8). Выведем остальные уравнения. Имеем Р„ +• Ы = Р.-l (0 X Д' + р„ (0 (1 — X Д' — пр Д') + р„+1 (0 лр Д'. откуда = >р„_, (0 - (X + пр) р„ (О + лм>»+1 (0- Далее выведем уравнение для pn+s{t) ₽„+.<' 4-Д0 = = (0 X Д' + Р„., (0 (1 — х Д' — пр Д') + р„„+1 (0 пр. Д'. откуда —7/ Ю + <0 — <Х + ЛЮ Pnts (0 +- /‘V-Pn м + 1 <')• Последнее уравнение будет = хРя1я,_1(0 - прр„,т (0.
jg|ц СИСТЕМА СМЕШАННОГО ТИПА 559 Таким образом, получена система (n-f’m-hl) дифференциальных уравнений: <*/>»(') = — >Pu(z) + M’i W- dt dpt(l) dt = xP»-l (0 — (x + *9) Pk (0 + + (*+l)M>»+i(0 (0<A<n-l). dp„(l) = ^P„-l (t) — (>•+ np-) Pn (0+ "№ + 1 (<) =>л. «-i от—a+м p»« (o+ + ^Pn+J+I (0 (19.11.1) dt dPn+s(t) dt dp„ + ml‘) dt Рассмотрим предельный случай при Приравнивая все про- изводные нулю, а все вероятности считая постоянными, получим си- стему алгебраических уравнений — xPo+№ = °- —(X + M pk + <k 4-1) ppft+1=0 (0 < k < n — 1), XP»-1 — (> + M Pn + nl‘P»+l = °- (19.11.2) ^«+,-1 — (x + op) P... + «PP,I«+1=0 (1 <s<m). —Wn+m = ° м добавочное условие: 2 р» = 1- fc=0 (19.11.3) Уравнения (19.11.2) могут быть решены твк же. как мы решили аналогичные алгебраические уравнения в предыдущих п°п°. Не оста-
560 ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОВСЛУЖИВАНИЯ [ГЛ. 1Э навливаясь на этом решении, приведем только окончательные формулы: «» (1 (19.11.4) (19.11.5) (0<А<л), Вероятность того, что заявка покинет систему необслуженной, равна вероятности /?я+/п того, что в очереди уже стоят т заявок. Нетрудно заметить, что формулы (19.11.4) и (19.J1.5) получаются из формул (19.10.11), (19.10.12), если положить в них 0 = 0 и огра- ничить суммирование по s верхней границей т. Пример. На станцию текущего ремонта автомашин поступает простей- ший поток заявок с плотностью X = оЛ (машины в час). Имеется одно поме- щение для ремонта. Во дворе станции могут одновременно находиться, ожи- дая очереди, не более трех машин. Среднее время ремонта одной машины /п/ов = — = 2 (часа). Определить: а) пропускную способность системы; б) среднее время простоя станции; в) определить, насколько изменятся эти характеристики, если оборудовать второе помещение для ремонта. Решение. Имеем: А = 0,5; и = 0,5; а = I; т ~ 3. а) По формуле (19.11.5), полагая п = I, находим вероятность того, что пришедшая заявка покинет систему необслуженной: рп = Pi в = I f 1 1 ч = 0,20. Относительная пропускная способность системы q — 1 — Ри = 0,80. Абсолют- ная пропускная способность: Q ~ \q = 0,4 (машины в час). б) Средняя доля времени, которое система будет простаивать, найдем по формуле (19.11.4): ро = у = 0,20, в) Полагая я = 2, найдем; 16 Г =47 «0,021, q — 1 — Ри ~ 0,979 (т. е. удовлетворяться будет около 98% всех заявок). Q — lq и 0,49 (машины в час). Относительное время простоя: ра = ю 0,34, т. е. оборудование будет простаивать полностью около 34% всего времени.
ПРИЛОЖЕНИЕ Та блица J Значения нормальной функции распределения: 1 Г — 2? X д х А X Ф*(Х) д -0,00 0,5000 40 —0,30 0.3821 38 —0,60 0,2743 34 -0,01 4960 40 —0,31 3783 38 —0,61 2709 33 0,02 4920 40 -0,32 3745 38 -0,62 2676 33 -0,03 4880 40 —0,33 3707 38 -0,63 2643 32 -0,04 4840 39 —0 34 3669 37 —0„64 2611 33 -0,05 4801 40 —0,35 3632 38 -0,65 2578 32 —0,06 4761 40 —0.36 3594 37 -0.66 2546 32 0,07 4721 40 -0.37 3557 37 -0,67 2514 31 —0,08 4681 40 —0.38 3520 37 -0,68 2483 32 0,09 4641 39 -0,39 3483 37 -0,69 2451 31 0,10 0,4602 40 —0 40 0,3446 37 —0,70 0,2420 31 0,11 4562 40 -041 3409 37 —0,71 2389 31 0,12 4522 39 —0,42 3372 36 —0,72 2358 31 -0,13 4483 40 —0,43 3336 36 —0.73 2327 30 -0,14 4443 .39 —0,44 3300 36 -0 74 2297 31 -0,15 4404 40 —0,45 3264 36 -0,75 2266 30 - 0,16 4364 39 -0,46 3228 36 -0.76 2236 30 0,17 4325 39 0,47 3192 36 -0,77 2206 29 -0,18 4286 39 -0,48 3156 35 -0,78 2177 29 -0,19 4247 40 —0,49 3121 36 —0,79 2148 29 —0.20 0,4207 39 —0.51) 0.3085 35 —0.80 0,2119 29 -0,21 4168 39 —0.5! 3050 35 —0.81 2090 29 0,22 4129 зэ —0.52 3015 34 -0,82 2061 28 0.23 4690 -0,53 2981 35 —0.83 2033 28 -0,24 4052 39 —0,54 2946 34 -0,84 2005 28 0,25 4013 30 —0,55 2912 35 -0,85 1977 28 —0,26 3974 38 -0.56 2877 34 —0,86 1949 27 —0,27 3936 39 —0,57 2843 33 -0,87 !922 28 —0,28 3897 38 -0.58 28’0 34 —0,88 1894 27 -0,29 3859 38 -0,59 2776 33 —0,89 1867 26
В62 ПРИЛОЖЕНИЕ Продолжение табл. I X ф*(х) д X А X д -0,90 0,1841 27 —1,30 0,0968 17 —1,70 0,0446 10 -0,91 1814 26 —1,31 0951 17 —1,71 0436 9 —0.92 1788 26 —1,32 0934 16 —1,72 0427 9 -0.93 1762 26 -1,33 0918 17 —1,73 0418 9 —0.94 1736 25 —1,34 0901 16 — 1,74 0409 8 —0,95 1711 26 —1,35 0885 16 —1,75 0401 9 —0.96 1685 25 —1,36 0869 16 —1,76 0392 8 —0,97 1660 25 —1,37 0853 15 —1,77 0.384 9 —0.98 1635 24 —1,38 0838 15 —1,78 0375 8 -0,99 1611 24 —1,39 0823 15 —1.79 0367 8 —1,00 0,1587 24 —1,40 0,0808 15 —1,80 0,0359 8 -1,01 1563 24 -1,41 0793 15 -1,81 0351 7 —1,02 1539 24 —1,42 0778 14 —1,82 0344 8 —1,03 1515 23 —1,43 0764 15 —1,83 0336 7 —1,04 1492 23 —1,44 0749 14 —1,84 0329 7 —1,05 1469 23 —1,45 0735 14 —1,85 0322 8 —1.00 1446 23 ! —1,46 0721 13 —1,86 0314 7 —1,07 1423 22 —1,47 0708 14 —1,87 0307 6 —1,08 1401 22 —1,48 0694 13 —1,88 0301 7 —1,09 1379 22 —1,49 0681 13 —1,89 0294 6 -1,10 0,1357 22 —1,50 0.0668 13 —1.90 0,0288 7 -1,11 1335 21 —1,51 0655 12 -1,91 0281 7 -1,12 1314 22 -1,52 0643 13 —1,92 0274 6 -1,13 1292 21 —1,53 0630 12 —1,93 0268 6 -1,14 1271 20 —1,54 0618 12 —1,94 0262 6 -1,15 1251 21 —1,55 0606 12 —1,95 0256 6 -1,16 1230 20 —1,56 0594 12 —1,96 0250 6 -1.17 1210 20 —1,57 0582 11 —1,97 0244 5 -1,18 1190 20 1—1,58 0571 12 —1,98 0239 6 | ~ 1.19 1170 19 -1,59 0559 11 —1,99 0233 5 —1,20 0,1151 20 —1,60 0,0548 11 —2,00 0,0228 49 -121 1131 19 —1,61 0537 11 —2,10 0179 40 — 1.22 1112 19 —1,62 0526 10 —2,20 0139 32 -1,23 1093 18 —1.63 0516 11 -2.30 0107 25 -124 1075 19 ,—1,64 0505 10 1—2,40 0082 20 —1,25 1056 18 —1,65 0495 10 —2,50 0062 15 -1,26 1038 18 —1,65 0485 10 1—2,60 0047 12 — 1,27 1020 17 -1.67 0475 10 —2,70 0035 9 — 1,28 1003 18 —1.58 0465 10 —2,80 0026 7 — 1,29 0985 17 г-1.69 0455 9 —2,90 0019 5
ПРИЛОЖЕНИЕ 563 Продолжение табл. I к * «* IX) а X Ф* LTI А -^3,00 0.0014 4 0,30 0,6179 38 0,70 0.7580 31 —3.10 0010 3 0,31 6217 38 0.7! 7611 31 —3,20 0007 2 0,32 6255 38 0,72 7642 31 —3,30 0005 2 0,33 6293 38 0.73 7673 30 -3,40 0003 1 0,34 6331 37 0.74 7703 31 —3,50 0002 0 0,35 6368 38 0.75 7734 30 -3.60 0002 I 0,36 6406 37 0.76 776-1 30 -3,70 0001 0 0,37 6443 37 0,77 7794 29 -3,80 0001 1 0,38 6480 37 0.78 7823 29 -3.90 оооо 0,39 6517 37 0,79 7852 29 0,00 0.5000 40 0,40 0.6554 37 0,80 0,788! 29 0,01 5040 40 0,41 6591 37 0,81 7910 29 0,02 5080 40 0,42 6628 36 0,82 7939 28 0,03 5120 40 0,43 6664 36 0,83 7967 28 0,04 5160 39 0.44 6700 36 0,84 7995 28 0.03 5199 40 0,45 6736 36 0,85 8023 28 0,08 5239 40 0,46 6772 36 0,86 8051 27 0.07 5279 40 0,47 6808 36 0,87 8078 28 0,08 5319 •10 0,48 6844 36 0.88 8106 27 0.09 5359 39 0,49 6879 36 0,89 8133 26 о.ю 0.5398 40 0.50 0,6915 35 0,90 0.8159 27 0,11 5438 40 0.51 6950 35 0,9! 8186 26 0,12 5478 39 0,52 6985 34 0,92 82! 2 26 0,13 5517 40 0,53 7019 35 0,93 8238 26 0,14 5557 39 0,54 7054 34 0,94 8264 25 0,15 5596 40 0,55 7088 35 0.95 8289 26 0,16 5636 39 I 0.56 7123 М 0,96 8315 25 0,17 5675 39 0.57 7157 33 0,97 8340 25 0,18 5714 39 0,58 7190 34 0,98 8365 24 0.19 5753 40 0.59 7224 33 0,99 8389 24 0,20 05793 39 0,60 0,7257 34 1.00 0,8413 24 0,21 5832 39 0,61 7291 33 1.01 8437 24 0.22 587! 39 0,62 7324 33 1,02 8161 24 0^23 5910 38 0,63 7367 32 1,03 84-85 23 0,24 5948 39 0,64 738$) 33 1,04 8508 23 0.25 5987 39 0.65 7422 32 1,05 8531 23 0,26 6026 38 0.60 7454 32 1,06 8554 23 0,27 39 0,67 7486 31 1.07 6577 22 0.28 6103 38 0,68 7517 32 1.08 8599 22 0,29 6141 38 0,69 7549 31 1,09 8621 22
564 ПРИЛОЖЕНИЕ ПРИЛОЖЕНИЕ 565 Продолжение табл I X Ф” 1Х\ | * 1 * 1 | а || ' 1 *• |Х( | Л 1,10 0,8643 22 1,50 0,9332 13 1,90 0,9713 6 1.11 8665 21 1,51 9345 12 1.91 9719 7 1,12 8686 22 1,52 9357 13 1,13 8708 21 1,53 9370 12 1,92 9726 6 1',14 8729 20 1.54 9382 12 1.93 9732 6 1 15 8749 21 1,55 9394 12 1,16 8770 20 1,56 9406 12 1,94 9738 6 1 17 8790 20 1,57 9418 11 1,95 9744 6 1 18 8810 20 1.58 9429 12 1,19 8830 19 1,59 9441 11 1,96 9750 6 1,97 9756 5 1,20 0,8849 20 1,60 0.9452 11 1,98 9761 6 1,21 8869 19 1.61 9463 11 1,99 9767 5 1,22 8888 19 1.62 9474 10 1,23 124 8907 8925 18 19 1,63 1.64 9484 9495 11 10 2,00 0,9772 49 1,25 8944 18 1,65 9505 10 2.10 9821 40 1,26 1,27 8962 8980 18 17 1.65 1.67 9515 9525 10 10 2,20 9861 32 1,28 8997 18 1,68 9535 10 2,30 9893 25 1,29 9015 17 1.69 9545 9 2,40 9918 20 2,50 9938 15 1,30 1,31 0,9032 9049 17 17 1,70 1.71 0,9554 9564 10 9 2,60 9953 12 1,32 9066 16 1,72 9573 9 2.70 9965 9 1,33 134 9082 9099 17 16 1,73 1.74 9582 9591 9 8 2,80 9974 7 L35 9115 16 1,75 9599 9 2,90 9981 5 1.36 9131 16 1.76 9608 8 1,37 9147 15 1.77 9616 9 1 3,00 0,9986 4 1,38 1,39 9162 9177 15 15 1.78 1.79 9625 9633 8 8 з.ю 9990 3 3,20 9993 2 1,40 0,9192 15 1.80 0,9641 8 3,30 9995 2 1,41 9207 15 1,81 9649 7 3.40 9997 1 1,42 1,43 9222 9236 14 15 1.82 1.83 9656 9664 8 7 3,50 9998 0 1,44 9251 14 1.84 9671 7 3,60 9998 1 1,45 1 46 9265 9279 14 13 1.85 1.86 9678 9686 3,70 9999 0 1,47 9292 14 1.87 9693 6 3,80 9999 I 1.48 1,49 9306 9319 13 13 1.88 1.89 9699 9706 7 7 3,90 1,0000 Значения функции е~х Таблица 2 Г в~* А X А X А X е~х А 0.00 1,000 10 0.40 0.670 7 | 0.80 0,449 4 3.00 0.05С 5 0.01 0.990 10 0.41 0,664 7 081 0.445 5 3,10 0 045 02 980 10 42 557 7 82 440 4 3,20 41 4 03 970 9 43 650 6 83 436 4 3.30 37 4 04 961 10 44 64-1 6 84 432 5 3.40 33 з 05 951 9 45 638 7 85 427 4 3,50 30 3 06 942 10 46 631 6 86 423 4 3,60 27 2 07 932 9 47 625 6 87 419 4 3.70 25 з 08 923 9 48 619 6 88 415 4 3.80 22 2 09 914 9 49 613 7 89 411 4 3.90 20 2 0,10 0.905 9 0,50 0.606 6 0.90 0.407 4 4.00 0,0183 17 11 896 9 51 600 Ь 91 403 4 4.10 166 16 12 887 9 52 595 6 92 399 4 4,20 150 14 13 878 9 53 589 6 93 395 4 4.30 136 13 14 869 8 54 583 6 94 391 4 4,40 123 12 15 861 9 55 577 6 95 387 4 4 50 111 10 16 852 8 56 571 6 96 383 4 4.60 101 10 Г7 844 9 57 565 5 97 379 4 4.70 0,0091 9 18 835 8 58 560 6 98 375 3 4.80 82 8 19 827 8 59 554 5 99 372 4 4,90 74 7 0.20 0,819 8 0,60 0.549 6 1.00 0.368 35 5.00 0,0067 6 21 811 8 61 543 5 1,10 333 31 5.10 61 6 22 803 8 62 538 5 1 1.20 302 29 5,20 55 5 23 795 8 63 533 6 1,30 273 26 5.30 50 5 24 787 8 64 527 5 140 247 24 5,40 45 4 25 779 8 65 522 b 1.50 223 21 5.50 41 4 26 771 8 66 517 5 1.60 202 19 5.60 37 4 27 763 7 67 5(2 5 1.70 183 18 5,70 33 з 28 756 8 68 507 5 1.80 165 15 5,80 30 3 29 748 7 69 502 5 1.90 150 15 5,90 27 2 0,30 0,741 8 0.70 0.497 5 2.00 0.135 13 6,00 0,0025 3 31 733 7 71 492 6 2,10 122 11 6.10 22 2 32 726 7 72 487 5 2,20 111 11 6.20 20 2 33 719 7 73 482 5 i 2.30 100 9 6.30 18 1 34 712 7 74 477 5 240 0.091 9 6.40 17 2 36 705 7 75 472 4 2,50 8’2 8 6,50 15 1 36 698 7 76 468 5 260 74 7 6,60 14 2 37 691 7 77 463 5 2,70 67 6 6,70 12 1 38 684 7 j /8 458 4 280 61 6 1 6.80 и 1 39 677 7 79 454 5 2,90 55 5 6,90 10 1 0.40 0,670 0.80 0,449 3,00 0,050 7,00 0,0009
566 ПРИЛОЖЕНИЕ Таблица 3 Значения функции / (х) = - г — в У 2п X 2 3 6 • 7 8 9 X 0,0 Ь.3989 3989 3989 3988 3986 3984 3982 3980 3977 3973 0,0 0.1 3970 3965 3961 3956 3951 3945 3939 3932 3925 3918 0.1 0.2 3910 3902 3891 3885 3876 3867 3857 3847 3836 3825 0.2 0.3 3814 3802 3790 3778 3765 3752 3739 3726 3712 3697 0.3 0.4 3683 3668 3653 3537 3621 3605 3589 3572 3555 3538 0.4 0.5 3521 3503 3485 3467 3448 3429 3410 3391 3372 3352 0.5 0.6 3332 3312 3292 3271 3251 3230 3209 3187 3186 3144 0.6 0.7 3123 3101 3079 3056 3034 ЗОН 2989 2966 2943 2920 0.7 ОН 2897 2874 2850 2827 2803 2780 2756 2732 2709 2685 0.8 0.9 2661 2637 2613 2589 2565 2541 2516 2492 2468 2444 0.9 10 0.2420 2396 2371 2347 2323 2299 2275 2251 2227 2203 1.0 И 2179 2155 2131 2107 2083 2059 2036 2012 1989 1965 1.1 1,2 1942 1919 1895 1872, 1849 1826 1804 1781 1758 1736 1.2 1.3 1714 1691 1669 1647 1626 1604 1582 1561 1539 1518 1.3 1.4 1497 1476 1456 1435 1415 1394 1374 1354 1334 1315 1.4 1.5 1295 1276 1257 1238 1219 1200 1182 1163 1145 1127 1.5 1.6 1Ю9 1092 1074 1057 1040 1023 1006 0989 0973 0957 1.6 1.7 0940 0925 0909 0893 0878 0863 0848 0833 0818 0804 1.7 1.8 07 90 0775 0761 0748 0734 0721 0707 0694 0681 0669 1.8 1.9 0656 0644 0632 0620 0608 0596 0584 0573 0562 0551 1.9 2.0 0.0540 0529 0519 0508 0498 0488 0478 0468 0459 0449 2.0 2.1 0140 0431 0422 0413 0404 0396 0388 0379 0371 0363 2,1 2.2 0355 0347 0339 0332 0325 0317 0310 0303 0297 0290 2.2 2.3 0283 0277 0270 0264 0258 0252 0246 0241 0235 0229 2.3 2,4 0224 0219 0213 0208 0203 0198 0194 0189 0184 0180 2,4 2.5 0175 0171 0167 0163 0158 0154 0151 0147 0143 0139 2.5 2,6 0136 0132 0129 0126 0122 0119 0116 0113 ОНО 0107 2.6 2.7 0104, 0101 0099 0096 0093 0091 0088 0086 0084 0081 2,7 28 0079 0077 0075 0073 0071 0069 0067 0065 0063 0061 2.8 2.9 0060 0058 0056 0055 0053 0051 0050 0048 0047 0046 2,9 3,0 0.0044 0043 0042 0040 0039 0038 0037 0036 0035 0034 3,0 31 0033 0032 0031 0030 0029 0028 0027 0026 0025 0025 3.1 3.2 0024 0023 0022 0022 0021 0020 0020 0019 0018 0018 3.2 3,3 0017 0017 0016 0016 0015 0015 0014 0014 0013 0013 3.3 3.4 0012 0012 0012 ООН ООН 0010 0010 0010 0009 0009 3.4 3,5 0009 0008 0008 0008 0008 0007 0007 0007 0007 0006 3.5 3.6 0006 0006 0006 0005 0005 0005 0005 0005 0005 0004 3.6 3.7 0004 0004 0004 0004 0004 0004 0003 0003 0003 0003 37 3.8 0003 0003 0003 0003 0003 0002 0002 0002 0002 000-2 3.8 3.9 0002 0002 0002 0002 0002 0002 0002 0002 0001 0001 3.S л и 1 2 3 5 6 7 8 9 Л
ПРИЛОЖЕНИЕ 567 § SoO^M^iproro — ООГОСТЮ—•V^rocerocoroocrot-'CMCD'—IDCTCOr- S'— Tf QO O> »— CO csrocMC>CO''*^-t''CMt-~C4t-~^-«СССчГООСМСРСЛГОКООГОСООГОСОО 8. Значения х’ в зависимости от -СМоЗсмСЧ^^Йго' 8 ^cMoi8RR^ic58roS2c?8o5ro? 2 3> 8> Soo —• ГОГОСООСМ'сГсСОООСМ'^сОЬ.СТ'-^ГО I ГО'в'ГОГ^ООО? ~£МГО^£ср t- оОф> QCMCQ-«*cDcDt-.‘cn Q ,^-.___„_C^)C^)CMCЧCЧCMCЧCЧГОГОГОГОГОГОГОГО^, 8 S?M38>?JcSro8<^l5'3oO.O>^rocD<DOOO>OC4ro^‘CC>t--aOO>0»*-<eM ’-^*^«о?='емгозго-£22-^гм^ я I СМ ГО Xf ср co” CTi О — CM ГО |Смсмсчсчсмсмсчгогогоо5 -СОООСрГОООСМСОСОСЗ' Г CD СО С CM C*jLQ CD t-~CT i s : $ R 8 2 fe 8 8 88 ЧГ CDC/5 CT> 838S3& ^J.fei§S!!?S.SS.S3S.S,SSSSS33 ГОГОГОГОГОГОГОГОГОГО CM CM ro ro citQr-ravciiOLOS C'lrooOCMCDOrocSlO CM rotp О -* О CD CM О CO X> Cp 1/5 OlDCMOroCMOOiDCM UCiOCMCT
568 ПРИЛОЖЕНИЕ ПРИЛОЖЕНИЕ 569 Значения Ц. удовлетворяющие равенству 0,1 0.2 0,3 0.4 0,5 0,6 0,7 1 о 0.158 142 0.325 289 0,510 445 0,727 617 1.000 0.816 1.376 1.061 1.963 1,336 137 134 132 277 424 584 765 0.978 1,250 О А 271 414 569 741 941 1.190 5 267 408 559 727 920 1,156 я 265 404 553 718 906 1.134 7 130 263 402 549 711 896 1,119 g 130 262 399 546 706 889 1.108 о 261 398 543 703 883 1.103 10 129 260 397 542 700 879 1.093 1 [ 129 260 396 540 697 876 1.088 1'2 13 14 15 128 259 395 539 695 873 1 .иъ'з 128 128 128 259 258 258 39-4 393 393 538 537 536 694 692 691 870 868 866 1.079 1,076 1.074 16 128 258 392 535 690 855 1.071 17 18 128 127 257 257 392 392 534 534 689 688 863 862 1,069 1.067 19 127 257 391 533 688 861 1.066 20 127 257 391 533 687 860 1,064 21 127 257 391 532 686 859 1,063 99 127 127 127 127 256 390 532 686 858 1,061 23 24 25 256 256 256 390 390 390 532 531 531 685 665 684 858 857 856 1.060 1,059 1.058 26 27 127 1'27 256 256 390 389 531 531 684 684 856 855 1.058 1.057 28 29 127 127 256 256 389 389 530 530 683 683 855 854 1.056 1,055 30 1'27 256 389 630 683 854 1,055 40 126 255 388 529 681 851 1,050 60 Р6 254 387 527 679 848 1.046 126 254 386 526 677 845 1.041 оо 0.1'26 0.253 0.385 0,524 0.674 0.842 1,036 Л —1 0,1 0.2 0,3 0.4 0,5 0,6 0,7 2 J S„^i(i)di = р, в зависимости от р и п — 1 о Таблица 5 1 О»8 0,9 0,95 0.93 0,99 0.999 3.03 1.886 1.638 1.533 1.476 1.440 1.415 1.397 1,383 1,372 1.363 1,356 1,350 1.345 1.341 1,337 1.333 1,330 1.328 1.325 1.323 1,321 1,319 1.318 1.316 1.315 1,314 1.313 1.311 1,310 1.303 1,296 1,289 1.282 6,31 2.92 2,35 2.13 2.02 1,943 1.895 1.860 1,833 1.812 1.796 1.782 1,771 1,761 1.753 1,746 1,740 1,734 1.729 1.725 1.721 1.717 1.714 1.711 1.708 1.706 1.703 1,701 1.699 1.697 1.684 1.671 1.658 1,645 12.71 4.30 3.18 2.77 2.57 2,45 2,36 2,31 2,26 2.23 2.20 2.18 2,16 2.14 2.13 2.12 2,11 2,10 2,09 2,09 2,08 2,07 2.07 2.06 2.06 2.06 2,06 2,05 2,04 2,04 2.02 2,00 1,980 1.960 31,8 6,96 4.54 3.75 3,36 3.14 3,00 2.90 2.82 2,76 2.72 2.68 2,65 2.62 2.60 2,58 2.57 2.55 2,54 2.53 2,52 2.51 2.50 2.49 2,48 2,48 2.47 2.47 2.46 2,46 2.42 2,39 2,36 2,33 63.7 9.92 5.84 4.60 4.03 3,71 3,50 3,36 3.25 3,17 3,11 3.06 3.01 2,98 2.95 2,92 2.90 2,88 2,86 2.84 2,83 2.82 2,81 2.80 2,79 2.78 2.77 2.76 2,76 2,75 2,70 2,66 2,62 2.58 636.6 31.6 12.94 8.61 6.86 5,96 5,40 5,04 4.78 4,59 4.49 4,32 4.22 4,14 4,07 4.02 3.96 3,92 3.88 3.85 3,82 3.79 3,77 3,74 3,72 3.71 3,69 3.67 3,66 3,65 3.55 3,46 3.37 3,29 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 1 40 60 120 со 1 0,8 0,9 0.95 0.93 0,99 0,999 4—1 р
570 приложение Таблица 6 Таблица двоичных логарифмов целых чисел от 1 до 100 л ‘°" 1 л Jog X X Jog X 1 0.00000 36 5t 16993 71 6,14975 2 1,00000 37 5,20945 72 6,16992 3 1,58496 38 5,24793 73 6,18982 4 2,00000 39 5,28540 74 6,20945 5 2,32193 40 5,32193 75 6,22882 6 2,58496 41 5,35755 7 2,80735 42 5,39232 76 6,24793 8 3,00000 43 5,42626 77 6,26679 9 3,16993 44 5,45943 78 6,28540 10 3,32193 45 5,49185 79 6,30378 11 3,45943 46 5,52356 80 6,32193 12 3,58496 47 5,55459 13 3.70044 48 5,58496 81 6,33985 14 3,80735 49 5,61471 82 6,35755 15 3,90689 50 5,64386 83 6,37504 16 17 4,00000 4,08746 51 52 5,67242 5,70044 84 85 6.39232 6,40939 18 4,16993 53 5,72792 19 4,24793 54 5,75489 86 6,42626 20 4.32193 55 5,78138 87 6,44294 21 22 23 4.39232 4,45943 4,52356 56 57 58 5,80735 5,83289 5,86798 88 89 90 6,45943 6,47573 6.49186 24 4,58496 59 5,88264 25 4.64386 60 5,90689 91 6,50779 92 6,52356 26 4,70044 61 5,93074 93 6,53916 27 4,75489 62 5,95420 94 6.55459 28 4,80735 63 5,97728 95 6,56986 29 4,86796 64 6,00000 30 4,90689 65 6,02237 96 6,58496 31 4,95420 66 6,04439 97 6,59991 32 5,00000 67 6,06609 96 6,61471 33 5,04439 68 6,06746 99 6,62936 34 5,08746 69 6,10852 100 6,64386 35 5,12928 70 6,12928 приложение Б71 Таблица значений функции Таблица 7 т](р)=— plogap р 4 р 4 0 0 664 0,50 0,5000 —45 0,01 0,0664 464 0.51 4954 —48 0,02 1128 390 0,52 4906 —52 0.03 1518 340 0,53 4854 54 0.04 1858 303 0,54 4800 —56 0,05 2161 274 0,56 4744 —59 0,06 2435 251 0,56 4685 ——6'2 0.07 2686 229 0.57 4623 -t>5 0,08 2915 211 0,58 4558 —67 0,09 3126 196 0.59 4491 —69 0,10 3322 181 0.60 4422 —72 0,11 3503 168 0.61 4350 —74 0,12 3671 155 0,62 4276 —77 0,13 3826 145 0,63 4199 —78 0,14 3971 134 0,64 4121 —81 0,15 4105 125 0,65 4040 —83 0,16 4230 116 0,65 3957 —86 0.17 4346 107 0,67 3871 -87 0,18 4453 99 0,68 3784 —90 0.19 4552 92 0.69 3694 —92 0,20 4644 84 0.70 3602 —94 0.21 4728 78 0.71 3508 —96 0,22 4806 71 0,72 3412 —93 0.23 4877 67 0,73 3314 —99 0.24 4941 59 0,74 3215 — 102 0,25 5000 53 0.75 3113 — 104 0,26 5053 47 0,76 3009 -106 0.27 5100 42 0.77 2903 — 107 0.28 5142 37 0.78 2796 — 109 0,29 5179 32 0,79 2687 —112 0,30 5211 27 0.80 2575 —113 0,31 5238 22 0.81 2462 — 114 0.32 5260 18 0.82 2348 -117 0.33 5278 14 083 2231 — 119 0,34 5292 9 0,84 2112 -120 0.35 5301 5 0.85 1992 —121 0.36 5306 1 0.86 1871 -123 0.37 5307 —2 0.87 1748 —125 0,38 5305 —7 0,88 1623 -127 0,39 5298 —10 0,89 1496 —128 040 5288 — 11 0.90 1368 —130 0,41 5274 —18 0,91 1238 -131 0,42 5256 —20 0.92 0.1107 —133 0.43 5236 —24 0.93 0,0974 —135 0,44 5210 —26 0.94 839 —136 0,45 5184 —29 0,95 703 —138 0,46 5153 —33 0,96 565 —139 0.47 5120 - 37 0,97 426 —140 0.48 5083 -^10 0,98 286 —142 0.49 5043 г .j з 0,99 144 —144 0,50 0.5000 1,00 0
572 ПРИЛОЖЕНИЕ Таблица 8 а"‘ -п Значения Рт = --р е а (распределение Пуассона) т «=0.1 а=0,2 я=0,3 в =0,4 о=0,6 а=о,б а =0,7 a=o,s «=0.9 0 0,9048 0,8187 0,7408 0,6703 0,6065 0,5488 0,49(56 0.4493 0,4066 1 0,0905 0.1638 0,2222 0,2681 0,3033 0,3293 0,3476 0,3595 0.3659 2 0,0015 0,0164 0,0333 0,0536 0,0758 0,0988 0,1217 0.1438 0,1647 3 0,0002 0,0019 0,0033 0,0072 0,0126 0,0198 0,0284 0.0383 0,0494 4 0,000! 0,0002 0,0007 о.оою 0,0030 0,0050 0,0077 0,0111 •5 0,0001 0,0002 0,0004 0,0007 0,0012 0,0020 6 0,0001 0,0002 0,0003 т а=1 «=2 о=3 а=4 а=5 а=6 0=7 а=в «=9 «=10 0 0,3679 0.1353 0,0498 0,0183 0,0067 0,0025 0,0009 0,0003 0,6001 0,0000 1 0.3679 0,2707 0,1494 0.0733 0,0337 0,0149 0.0064 0.0027 0,0011 0,0005 2 0,1839 0,2707 0,2240 0,1465 0,0842 0,0446 0,0223 0,0107 0,0050 0,0023 3 0,0613 0,1804 0,2240 0.1954 0,140-1 0,0892 41,0521 0,0286 0,0150 0,0076 4 '0,0153 0,0902 0.1680 0,1954 0,1755 0.1339 0,0912 0.0572 0,0337 0,0! 89 5 0,0031 0,0361 0,1008 0,1563 0.1755 0,1606 0,1277 0,0916 0.0607 0,0378 6 0 0005 0,0120 0,0501 0,1042 0,1462 0,1606 0,1490 0,1221 0,0011 0,0631 7 0,0001 0,0037 0,0216 0,0595 0,1044 0,1377 0.1490 0,1396 0,1171 0,0901 8 0,0009 0,0081 0,0298 0,0653 0,1033 0,1304 0,1396 0,1318 0,1126 9 0,0002 0,0027 0.0132 0,0363 0,0688 0,1014 0,1241 0,1318 0,1251 10 0,0008 0.0053 0,0181 0,0413 0,0710 0,0993 0,1186 0,1251 11 0,0002 0.0019 0,0082 0,0225 0,0452 0,0722 0,0970 0,1137 12 0,0001 0,0006 0,0034 0,0126 0,0263 0,0481 0,0728 0,0948 13 0,0002 0,0013 0,0052 0,0142 0.0296 0,0504 0,0729 14 0.0001 0,0005 0,0022 0,0071 0,0169 0,0324 0,0521 15 0,0002 0,0009 0.0033 0,0090 0,0194 0,0347 16 0,0003 0,0014 0,0045 0,0109 0,0217 17 0,0001 0,0006 0.0021 0,0058 0,0128 18 0,0002 0,0009 0,0029 0,0071 19 0.0001 0,0004 0,0014 0,0037 20 0.0002 0,0006 0,0019 21 0.0001 0,0003 0,0009 22 0,0001 0,0004 23 0,0002 24 0,0001
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Асимметрия 97 Вероятностная зависимость 173 Вероятность доверительная 318 — события 24 ----- условная 46 — статистическая 29 Выборка 142 Выравнивание статистических ря- дов 143 Генеральная совокупность 142 Гистограмма 137 Главные осн рассеивания 194 — средние квадратические отклоне- ния !94 Группа событий полная 25 Дисперсия 96, 403 — случайной функции 378 Доверительные границы 318 Доверительный интервал 318 Зависимость случайных величии ли- нейная 179 — стохастическая 173 Закон больших чисел 88, 286, 290 — Гаусса 116 — Пуассона 106 — равномерной плотности 103 — распределения 68. 182, 376 -----дифференциальный 80 -----интегральный 73 ----- предельный 287 ----- случайной функции 375 -----суммы 271 -----условный 169 -----устойчивый 278 — редких явлений ИЗ — Симпсона 274 — треугольника 274 — Эрланга 532 Инге! рал вероятностей 122 — Фурье 434 Информация 481 — полная взаимная 486 -----(средняя) 486 — частная 489 Код 502 — двоичный 503 — Шеннона — Фено 505 Кодирование 502 Комплекс 159 Композиция законов распределения — нормальных законов 275 -----— на плоскости 280 Корреляция отрицательная 180 — положительная 180 Коэффициент корреляции 178 Кривая распределения 80 Кривые Пирсона 145 — равной плотности 165 согласия 149 Колмогорова 156 рассеивание 196 Критерии Критерий ~ X2 151 Круговое Линеаризация функций 252 Линия регрессии 192 Математическая статистика 131 Математическое ожидание 86, 218 402 — — случайной функции 377 ----- условное 192 Матрица корреляционная 186 ----- нормированная 186 Медиана 92 Мера точности 120 Метод моментов 145 — наименьших квадратов 354 Многоугольник распределения 69 Мода 90
574 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Момент 92 — абсолютный 99 — корреляционный 176 — начальный 923 93. 175 — нормального распределения 120 — связи 176 — системы случайных величин 175 — статистический 140 — центральный 94, 175. 176 Непосредственный подсчет вероят- ностей 25 Неравенство Чебышева 287 Нормальный закон 116. 280, 297 — — в пространстве 205 — теории стрельбы 297 — —t каноническая форма 194 — — на плоскости 188 — —.параметры 117 Обработка стрельб 347 Объединение двух систем 475 Опыты независимые 59 Отклонение вероятное 127 — — главное 195 — срединное 127 — среднее арифметическое 99 ----квадратическое 96, 97 Оценка 313 — несмещенная 314 — состоятельная 313 — эффективная 314 Оценки для характеристик системы 339 Плотность вероятности 80 — дисперсии средняя 431 — потока мгновенная 527 ---- заявок приведенная 545 — распределения 80, 164 -----системы двух величин 163 — — — нескольких величин 182 — спектральная 432 ---- нормированная 434 Поверхность распределения 165 Поток Пальма 529 — событий 520 ----без последействия 520. 521 ----нестационарный пуассоновский 527 ------- однородных 520 ----ординарный 520, 522 ----простейший 520 ----регулярный 520 ----с ограниченным последействи- ем 529 ----стационарный 520, 521 — Эрланга 530—533 Правило трех сигма 125, 290 Преобразование Фурье 300, 434 --- обратное 300 Принцип практической уверенности 35 Произведение событий 39 Производительность источника ин- формации 508 Пропускная способность канала 508, 511 — — системы абсолютная 516 ---.----относительная 516, 544 Простая статистическая совокуп- ность 133. 134 Процесс без последействия 537 — марковский 537 — стохастический 20 Разложение корреляционной функ- ции каноническое 412 — случайной функции 409 --------каноническое 412 — спектральное 430, 431 — в комплексной форме 438 Распределение антимодальное 91 — биномиальное 61 — поли модальное 91 — Пуассона 106 — Релея 200 — Стьюдента 325 Рассеивание 96, 176 Реализация случайной функции 37L Ряд распределения 69 «— статистический 136 --- простой 131 Свойство суперпозиции 409 Сетка рассеивания 202 Сечение случайной функции 374 Система случайных величин 159 Системы величин некоррелирован- ные 187 — массового обслуживания 515 Скошенность 97 Случаи 26 — благоприятные 26 Случайная величина 32, 67 — — дискретная 32 — — комплексная 402 — — непрерывная 32 — — прерывная 32 • смешанная 77 — — характеристическая 33 --- центрированная 93 — ючка 159 — функция 370, 371 •------ комплексная 404
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ 575 Случайная функция нормированная Теорема Шеннона вторая 613 ----, разложение 409 - — центрированная 382 — — элементарная 407 Случайное явление 11 Случайные векторы некоррелирован- ные 187 — величины зависимые 172 ---независимые 172, 183 — — некоррелированные 178 «- — несвязанные 178 — функции, сложение 399 Случайный вектор 150 — процесс нестационарный 419 ---стационарный 419 Событие 23 — достоверное 24 — невозможное 24 События зависимые 46 — независимые 45. 48 — несовместные 26 — практически достоверные 34 ------- невозможные 34 — противоположные 42 — равновозможные 26 Спектр дисперсий 431 — • стационарной случайной функции 431 Стандарт 96 Статистическое среднее 140 Степень неопределенности системы 469, 470 Сумма событий 38 Сходимость по вероятности 31 I I I I I I I I I I I I I I I I Теорема Бернулли 31. 36, 286, 295 гипотез 56 Лапласа 308 Маркова 294 о повторении опытов 61. 63 Пальма 530 Пуассона 296 сложения вероятностей 40 — дисперсий 224 — корреляционных матриц 230 — •— моментов 229 — математических ожиданий 221 — энтропий 476 умножения вероятностей 46 — законов распределения 170 — математических ожиданий 226 центральная предельная 287, 297, 302, 303 — Чебышева обобщенная 293 ---- первая 508 Теоремы предельные 287 Теория информации 468 Уравнения Эрланга 543 Условие Линдеберга 306 Устойчивость средних 88, 286 — частот 28, 29 Формула БеЙеса 56 — полной вероятности 54 -------интегральная 217, 218 Формулы Эрланга 546 Функция автокорреляционная 379 — корреляционная 379 ---- взаимная 399 — — нормированная 381, 422 — Лапласа 128 ------- приведенная 129 — производящая 62 — распределения 73 ----нормальная 123 ----системы двух величин 150 — ----- нескольких величин 182 ---- статистическая 134 — связи корреляционная 399 — характеристическая 299, 301 Характеристика частотная 449 Характеристики выборочные 142 — комплексной случайной величины 402 — положения 85 — рассеивания 96 — системы величин 184 — случайной функции 377 — числовые 85 — — функций случайных величин 210 Центр рассеивания 118 Частота события 24, 28 Эксцесс 98 Элемент вероятности 81, 165 Эллипс равной плотности 194 — рассеивания 194 — единичный 195 — — полный 195 Энтропия 471, 481 — приведенная 495 — условная 477 — частная условная 498 Эргодическое свойство 458
Учебное издание Вентнель Елена Сергеевна ТЕОРИЯ ВЕРОЯТНОСТЕЙ Редактор Ж.И. Яковлева Художественный редактор Ю.Э. Иванова Технический редактор Л. А. Овчинникова ЛР № 010146 от 25.12.96. Изд. № ФМ-200. Поди, в печать 18.09.2000 Формат 60x88 ’/16. Бум. газетн. Гарнитура “Литературная". Печать офсетная Объем: 35,28 усл. печ. л., 35,28 усл. кр.-огг.. 33,72 уч.-нзд. л. Тираж 10000 экз. Заказ No 2014 ГУП 'Издательство “Высшая школа", 101430. Москва, ГСП-4, Нсглинная ул., д. 29/14 Отпечатано в ГУП ИПК •'Ульяновский Дом печати” 432601. г. Ульяновск, ул. Гончарова. 14 ISBN 5-06-003650-2 9785060 036503