Text
                    А.И. Кибзун, Е.Р. Горяинова,
А.В. Наумов, А.Н. Сиротин
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКАЯ
СТАТИСТИКА
БАЗОВЫЙ КУРС
С ПРИМЕРАМИ И ЗАДАЧАМИ
Под редакцией А.И. Кибзуна
Рекомендовано Учебно-методическим объединением,
высших учебных заведений Российской Федерации
по образованию в области авиации, ракетостроения
и космоса в качестве учебного пособия для студентов
высших технических учебных заведений
МОСКВА
ФИЗМАТЛИТ
2002


УДК 519.2 К38 ББК 22.17 Кибзун А. И., Горяинова Е. Р., Наумов А. В., Сиротин А. Н. Теория вероятностей и математическая статистика. Базо- Базовый курс с примерами и задачами / Учебн. пособие. — М.: ФИЗМАТЛИТ, 2002. - 224 с. - ISBN 5-9221-0231-1. Книга предназначена для начального ознакомления с основами теории вероятностей и математической статистики и развития навыков решения практических задач. Основное внимание уделяется краткости изложения полного курса «Те- «Теории вероятностей и математической статистики», состоящего из теорети- теоретического и практического материала. Структура изложения максимально приближена к лекционным и практическим занятиям. Пособие может од- одновременно играть роль учебника, задачника, решебника и справочника. Для преподавателей вузов, инженеров и студентов технических и эконо- экономических специальностей. Ил. 38. Библиогр. 31 назв. Рецензенты: кафедра математического моделирования Московского государственного технического университета имени Н.Э. Баумана (зав. кафедрой, д.ф.-м.н., профессор А.П. Крищенко); д.ф.-м.н., профессор А.И. Матасов ISBN 5-9221-0231-1 © ФИЗМАТЛИТ, 2002
СОДЕРЖАНИЕ Предисловие редактора 6 Предисловие 7 Список основных сокращений и обозначений 10 Глава I. Случайные события 13 § 1. Основные понятия 13 1.1. Пространство элементарных событий A3). 1.2. Алгебра событий A4). 1.3. Вероятность события A5). § 2. Основные свойства вероятности 17 2.1. Аксиоматические свойства A7). 2.2. Свойства вероят- вероятности для полной группы событий A9). 2.3. Типовые зада- задачи B1). § 3. Основные формулы вычисления вероятностей 30 3.1. Формула умножения вероятностей C0). 3.2. Формула сложения вероятностей C2). 3.3. Формула полной вероятно- вероятности C3). 3.4. Формула Байеса C3). 3.5. Формула Бернул- ли C4). 3.6. Типовые задачи C5). § 4. Задачи для самостоятельного решения 42 Глава П. Случайные величины 53 § 5. Основные понятия 53 5.1. Функция распределения E3). 5.2. Дискретные случайные величины E4). 5.3. Непрерывные случайные величины E6). 5.4. Числовые характеристики случайных величин E8). 5.5. Характеристическая функция F1). 5.6. Квантиль F2). 5.7. Типовые задачи F3). § 6. Основные дискретные распределения 68 6.1. Биномиальное распределение F8). 6.2. Распределение Бернулли G0). 6.3. Распределение Пуассона G1). 6.4. Ти- Типовые задачи G3). § 7. Основные непрерывные распределения 76 7.1. Равномерное распределение G6). 7.2. Экспоненциаль- Экспоненциальное распределение G8). 7.3. Нормальное распределение G9). 7.4. Распределение Вейбулла (82). 7.5. Логарифмически нор- нормальное распределение (83). 7.6. Типовые задачи (84). § 8. Задачи для самостоятельного решения 87 Глава III. Случайные векторы 93 § 9. Двумерные случайные величины 93 9.1. Функция распределения (93). 9.2. Плотность распреде- распределения (96). 9.3. Типовые задачи (99).
СОДЕРЖАНИЕ § 10. Условные распределения 105 10.1. Условная функция распределения A05). 10.2. Услов- Условная плотность распределения A07). 10.3. Условное мате- математическое ожидание A09). 10.4. Корреляционная зави- зависимость A11). 10.5. Двумерное нормальное распределе- распределение A13). 10.6. Типовые задачи A14). §11. Многомерные случайные величины 119 11.1. Основные характеристики многомерных СВ A19). 11.2. Многомерное нормальное распределение A22). 11.3. Биржевой парадокс A23). 11.4. Типовые задачи A25). § 12. Задачи для самостоятельного решения 128 Глава IV. Случайные последовательности 132 § 13. Закон больших чисел 132 13.1. Виды сходимости последовательностей СВ A32). 13.2. Сходимость усредненной суммы независимых СВ A35). 13.3. Типовые задачи A38). § 14. Центральная предельная теорема 141 14.1. Сходимость нормированной суммы независимых СВ A41). 14.2. Сходимость частоты A44). 14.3. Типовые задачи A46). § 15. Задачи для самостоятельного решения 149 Глава V. Математическая статистика 152 § 16. Основные выборочные характеристики 152 16.1. Основные понятия A52). 16.2. Вариационный ряд A53). 16.3. Выборочная функция распределения A54). 16.4. Гистограмма A56). 16.5. Выборочные моменты A57). 16.6. Типовые задачи A59). § 17. Основные распределения в статистике 161 17.1. Распределение хи-квадрат A61). 17.2. Распределение Стьюдента A62). 17.3. Распределение Фишера A64). § 18. Точечные оценки 165 18.1. Основные понятия A65). 18.2. Метод максимального правдоподобия A69). 18.3. Метод моментов A72). § 19. Интервальные оценки 173 19.1. Основные понятия A73). 19.2. Использование цен- центральной статистики A74). 19.3. Использование точечной оценки A80). 19.4. Типовые задачи A82). § 20. Проверка статистических гипотез 183 20.1. Основные понятия A83). 20.2. Проверка гипотезы о значении параметра A85). 20.3. Проверка гипотезы о ви- виде закона распределения A86). 20.4. Проверка гипотезы о независимости двух СВ A88). 20.5. Проверка гипотезы об однородности наблюдений A89). 20.6. Типовые зада- задачи A90). § 21. Задачи для самостоятельного решения 196
СОДЕРЖАНИЕ Глава VI. Приложения математической статистики .... 198 § 22. Регрессионный анализ 198 22.1. Модели регрессии A98). 22.2. Схема Гаусса- Маркова A99). 22.3. Простая линейная регрессия B01). 22.4. Типовые задачи B04). § 23. Метод статистических испытаний 205 23.1. Основные понятия B05). 23.2. Вычисление вероятно- вероятности события B05). 23.3. Вычисление определенного инте- интеграла B08). 23.4. Типовые задачи B11). § 24. Задачи для самостоятельного решения 212 Ответы 213 Таблицы 216 Список литературы 219 Предметный указатель 221
ПРЕДИСЛОВИЕ РЕДАКТОРА В 1973 году на факультете прикладной математики Московского государственного авиационного института (технического университе- университета) академиком B.C. Пугачевым была создана кафедра теории вероят- вероятностей и математической статистики. За прошедшее время на кафедре под научно-методическим руководством B.C. Пугачева были созданы и прочитаны оригинальные учебные курсы по таким дисциплинам, как «Теория вероятностей и математическая статистика», «Случай- «Случайные процессы», «Математический анализ» и др. На суд читателя выносится серия учебных пособий по трем названным дисциплинам, которые отражают накопленный опыт преподавания этих дисциплин студентам технического университета МАИ, специализирующимся в области прикладной математики, радиоэлектроники, машинострое- машиностроения и систем управления. Отличительной чертой данных пособий яв- является максимально лаконичное изложение материала при достаточ- достаточно полном описании современного состояния изучаемых предметов. Кроме того, значительную часть пособий занимают многочисленные примеры и задачи с решениями, что позволяет использовать эти по- пособия не только для чтения лекционных курсов, но и для проведения практических и лабораторных занятий. Структура изложения курсов такова, что эти пособия могут одновременно играть роль учебника, задачника и справочника. Поэтому пособия могут быть полезны как преподавателям и студентам, так и инженерам. Проф., д.ф.-м.н. А.И. Кибзун
ПРЕДИСЛОВИЕ Вниманию читателей предлагается учебное пособие по курсу «Тео- «Теория вероятностей и математическая статистика» (ТВ и МС), который читался в течение многих лет на различных факультетах Московского государственного авиационного института (МАИ) с использованием учебных программ, соответствующих большинству стандартов для технических и экономических специальностей. Характерной особенно- особенностью данного пособия является его многоцелевое назначение. При его написании была сделана попытка выполнить следующие требования: 1) лаконичность изложения, свойственную конспекту лекций; 2) детальное доказательство всех утверждений, характерное для учебников; 3) наличие типовых задач с решениями, а также задач для самостоятельного решения, что отличает задачники; 4) систематизированный и автономно замкнутый материал, при- присущий справочникам; 5) наличие формализованных ссылок на установленные ранее свойства и введенные понятия, что характерно для компьютерных учебников. Насколько эта попытка удалась авторам — судить читателю. Несколько слов более подробно об этих отличительных чертах. Весь курс разделен на 18 тем (параграфов), которые соответству- соответствуют примерно 18 лекциям и 18 практическим занятиям продолжи- продолжительностью по два академических часа. Это соответствует объему стандартного курса ТВ и МС для технических и экономических специальностей. Кроме того, книга содержит дополнительный раздел, посвященный приложениям математической статистики, которые яв- являются актуальными при решении практических задач. Весь матери- материал удалось разместить на 14 печатных листах (п. л.). Заметим, что объем известных учебников и задачников по ТВ и МС достигает 20 п. л. и более. Так как эти учебники содержат информацию, выходя- выходящую за рамки стандартной учебной программы, то студентам, как правило, трудно самостоятельно найти интересующий их материал или разобраться в нем. По мнению авторов, в лаконично изложен- изложенном пособии, имеющем четкую иерархическую структуру, студентам значительно проще ориентироваться. Кроме того, если курс читается по данному пособию, то студентам не требуется записывать «живые» лекции, и на лекциях остается лишь прояснить непонятые вопросы. Большинство учебников по ТВ и МС отличается от предлагаемого еще и тем, что начинающему преподавателю, даже с хорошей математи- математической подготовкой, очень сложно прочитать по ним реальный курс
ПРЕДИСЛОВИЕ лекций. Это связано с тем, что в учебниках нет дробления материала на последовательные лекции и семинарские занятия, и поэтому при ограниченном их числе преподавателю бывает трудно решить, какие разделы ТВ и МС следует прочитать, а какие нет, не нарушая при этом стройности изложения. Данная книга содержит несколько больше материала, чем необ- необходимо для прочтения 18 лекций и проведения 18 практических занятий. В частности, все утверждения аккуратно доказываются, но в реальных лекциях некоторые из этих доказательств могут быть опущены по усмотрению лектора. В конце каждого параграфа (темы) имеются типовые задачи с решениями, которые могут послужить основой для проведения практических занятий. В конце каждой главы приводятся задачи, предназначенные для самостоятельного решения, а также задачи повышенной сложности (отмеченные звездочкой). Ответы к задачам для самостоятельного решения даны в конце книги. Детальность доказательств и наличие дополнительных задач позволя- позволяют студенту самостоятельно изучить материал, не рассматривавший- рассматривавшийся на лекциях или семинарах. В обычном учебнике при доказательстве теорем часто отсутствуют ссылки на понятия или свойства, введенные или установленные в предыдущих разделах и главах. При этом предполагается, что студент усвоил весь предыдущий материал и все помнит. К сожалению, это предположение на практике не всегда выполняется. И тогда студенту, встретившему ссылку на материал, который он не помнит, остается перечитать весь учебник заново либо отложить его в сторону. В предлагаемом пособии вывод каждой формулы сопровождается не абстрактными «отсылками» к предыдущим разделам, а четкими ссылками на изученные свойства и введенные понятия. В пособии присутствует сравнительно немного символических объектно-ориентированных сокращений, тем не менее с ними лучше познакомиться заранее, до начала чтения пособия. Для удобства читателя все сокращения, символические записи и основные обозначения собраны вместе в отдельный список. Следует отметить, что большинство учебников по ТВ и МС, опубликованных в нашей стране, либо вообще не содержат при- прикладных примеров, либо эти примеры имеют однобокую (например, военную) окраску. Но, очевидно, что для эффективного использова- использования на практике полученных теоретических знаний студент должен уметь самостоятельно строить математические модели для конкрет- конкретных прикладных задач. По этой причине в данное пособие вставлены разнообразные примеры технического и экономического характера, позволяющие студенту глубже понять физический и экономический смысл изучаемого им курса. Пособие имеет четкую иерархическую структуру, роднящую его со справочниками. В частности, имеется подробный предметный ука- указатель. Вся информация, содержащаяся в книге, подразделена на
ПРЕДИСЛОВИЕ блоки, называемые замечаниями, примерами, теоремами или свой- свойствами. Отметим, что «вольный» текст, отражающий мнение авторов, встречаются только в замечаниях. Таким образом, каждый параграф (тема) состоит из пунктов (разделов), названия которых вынесены в оглавление, а каждый раздел состоит из этих блоков. В каждом параграфе нумерация блоков является автономной. Поэтому легко организуются ссылки из последующих пунктов на предыдущие. На основании данного пособия разработан компьютерный учебник, который позволяет мгновенно находить отмеченные выше ссылки и получать многочисленные комментарии и пояснения. Комментарии можно получить как из оглавления и предметного указателя, так и из самого текста. Более детально с возможностями компьютерного учебника можно ознакомиться в [13]. При написании книги авторы ориентировались на известные учеб- учебники по ТВ и МС. В частности, многие технические примеры взяты из [23], экономические примеры из [31], а парадоксальные примеры из [26]. Лаконичность изложения в книгах [27], [20] служила образцом для авторов. Большая часть справочного материала заимствована из [18]. Структура пособия во многом повторяет учебники [23], [12]. Следует отметить, что настоящее пособие является не первой попыт- попыткой изложить курс ТВ и МС в таком виде. Авторы в своей работе в значительной мере опирались на предшествующие версии пособий по предлагаемому курсу [15], [8]. Но данное пособие было написано практически заново, в него были включены дополнительные примеры и усилена строгость изложения материала. Авторы благодарят В.А. Ефремова за помощь в подготовке рукописи.
СПИСОК ОСНОВНЫХ СОКРАЩЕНИЙ И ОБОЗНАЧЕНИЙ 1. Математические символы. А\В — разность событий А и В А-\- В — сумма событий А и В АВ — произведение событий А и В ехр(ж) = ех col(a?i,... , хп) — вектор—столбец с компонентами х±,... , хп w?i — элемент ш принадлежит множеству А ио ? А — элемент ш не принадлежит множеству А А С В — событие А влечет появление события В k = 1, п — множество натуральных чисел от 1 до п А = — равенство по определению = — тождество п ^2 Xk — сумма величин Хк , к = 1,п к=1 п ^2 Ak — сумма событий Ak , к = 1, п к=1 п []xfc — произведение величин Хк , к = 1,п к=1 п Y[ ^-k — произведение событий Ak , к = 1,п к=1 М[Х] — математическое ож:идание СВ X D[X] — дисперсия СВ X Р(А) — вероятность события А 1R — действительная ось det К — определитель матрицы К лТ Л — транспонированная матрица / — единичная матрица 2. Обозначения. А, В, С — случайные события А — противоположное событие ш — элементарное событие Q — пространство элементарных событий, достоверное событие 0 — невозможное событие Wn(A) — частота появления события А в п опытах
СПИСОК ОСНОВНЫХ СОКРАЩЕНИЙ И ОБОЗНАЧЕНИЙ 11 — вероятность события А ~Р(А\В) — условная вероятность события А относительно В Hk — к-я гипотеза С™ — число сочетаний из п по т X,Y, Z — случайные величины x,y,z — реализации СВ {ш : Х(ио) ^ х} — множество ш , для которых Х(ш) ^ х F(x) = Fx(x) — функция распределения СВ X /(ж) = fx(x) — плотность распределения СВ X ~Р{Х ^ х} — вероятность события {ои : Х(ио) ^ х} Pi = Р{Х = Xi} — вероятность события {X = Xi} тх = M[X] — математическое ожидание (МО) СВ X vr-, Цг — начальный и центральный моменты порядка г dx = D[X] — дисперсия СВ X ах — среднее квадратическое отклонение СВ X о X — центрированная СВ * X — нормированная СВ X ~ Bi(n;p) — СВ X имеет биномиальное распределение с параметрами пир X ~ П(а) — СВ X имеет распределение Пуассона с параметром а X rsj R(a; b) — СВ X имеет равномерное распределение на отрезке [a, b] X ~ Е(Л) — СВ X имеет экспоненциальное распределение с параметром Л X rsj N(m; a ) — СВ X имеет нормальное распределение с параметрами т и а Фо(ж) — функция Лапласа Г (ж) — гамма-функция Эйлера ха — квантиль уровня а функции распределения F(x) СВ X F(x, у) — функция распределения двумерной СВ Z = col(X, Y) f(x,y) — плотность распределения двумерной СВ Z = col(X, Y) кху — ковариация СВ X и Y гху — коэффициент корреляции СВ X и Y М[У|Х] — условное математическое ожидание Y относительно X Zn = col(Xi,... , Хп) — вектор-столбец из элементов Х\,... , Хп F(xi,... , хп) — функция распределения СВ Z = col(Xi,... , Хп) f(xi,... ,хп) — плотность распределения СВ Z = col(Xi,... , Хп) К — ковариационная матрица с элементами кгj , г = 1, п , j = 1, т R — корреляционная матрица Pij =P{X = xi:Y = yj} {Хп} , п = 1,2,... , — случайная последовательность (СП)
12 СПИСОК ОСНОВНЫХ СОКРАЩЕНИЙ И ОБОЗНАЧЕНИЙ 771 Хп у X — сходимость СП {Хп} к СВ X по распределению р Хп у X — сходимость СП {Хп} к СВ X по вероятности Хп —'—^- X — сходимость СП {Хп} к СВ X в среднем квадратическом Хп —'—^- X — сходимость СП {Хп} к СВ X почти наверное ь>Г1 /2Г — выборочные начальные и центральные моменты порядка г rhx = v\ — выборочное среднее dx = Д2 — выборочная дисперсия sx = dx — несмещенная выборочная дисперсия 71 — 1 Zn = col(Xi,... , Хп) — выборка объема п zn = со1(ж1,... , хп) — реализация выборки объема п X ~ Х2(п) — СВ X имеет распределение хи-квадрат с п степенями свободы X rsj S (п) — СВ X имеет распределение Стьюдента с п степенями свободы X rsj F (n; га) — СВ X имеет распределение Фишера спит степенями свободы 6(Zn) — выборочная оценка параметра в L(zn,0) — функция правдоподобия 3. Сокращения. ММП — метод максимального правдоподобия МНК — метод наименьших квадратов МО — математическое ожидание СВ — случайная величина СП — случайная последовательность п.н. — почти наверное с.к. — среднее квадратическое ЗБЧ — закон больших чисел ЦПТ — центральная предельная теорема
ГЛАВА I СЛУЧАЙНЫЕ СОБЫТИЯ 1. Основные понятия 1.1. Пространство элементарных событий. Теория вероят- вероятностей — раздел математики, изучающий закономерности случайных явлений, наблюдаемых при многократном повторении опыта. Под опытом G понимается воспроизведение какого-либо комплек- комплекса условий для наблюдения исследуемого явления (события). Обычно считается, что событие случайно в опыте, если при неоднократном воспроизведении этого опыта оно иногда происходит, а иногда — нет, причем нельзя заранее предсказать возможный исход (событие) это- этого опыта. При этом наблюдается свойство устойчивости частоты случайного события: с увеличением числа повторений опыта значе- значение частоты появления случайного события стабилизируется около некоторого неслучайного числа. Пример 1.1. Пусть опыт G состоит в подбрасывании игральной кости и наблюдении числа выпавших очков X. Тогда можно ввести следующие случайные события: {X = 1}, {X = 2}, ..., {X = = 6}, {X ^2}, {2 < X ^ 6}, {X - четно}, {X - нечетно} и т.д. Возможные исходы со опыта G называются элементарными со- событиями, если они являются взаимно исключающими и в результате опыта G одно из них обязательно происходит. Совокупность Q всех элементарных событий ио в опыте G называется пространством элементарных событий. Пространство элементарных событий — это математическая мо- модель опыта, в которой любому событию ставится в соответствие некоторое подмножество пространства ?1. В общем случае каждому опыту G можно сопоставить несколько математических моделей, т. е. пространств элементарных событий. Пример 1.2. В примере 1.1 пространство элементарных собы- событий ?1 = {cji,... , ojq} , а элементарное событие с^ состоит в том, что {X = г}, г = 1,6. Событие {X — четно} = {оо2^а^о] является подмножеством пространства ?1. Определение 1.1. Событие называется невозможным в опы- опыте G, если при повторении опыта оно никогда не происходит. Ему
14 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I соответствует пустое подмножество в Q, которое обозначают 0. Определение 1.2. Событие называется достоверным в опы- опыте G, если при повторении опыта оно происходит всегда. Ему соот- соответствует пространство ?1. События будем обозначать большими латинскими буквами А, В, С и т.д. Определение 1.3. Говорят, что в опыте G событие А влечет появление события В, если из осуществления события А следует наступление события В, т. е. каждый элемент множества А принад- принадлежит множеству В . Это обозначается так: А С В . 1.2. Алгебра событий. Определение 1.4. События А ж В называются равными, А = = В , если А С В и В С А. Определение 1.5. Суммой событий А ж В называется собы- событие А-\- В, состоящее в том, что в опыте произойдет хотя бы одно из этих событий. Событию А + В соответствует множество, элементы которого принадлежат хотя бы одному из множеств А или В, т. е. объединение множеств А и В. Определение 1.6. Произведением событий Аи В называется событие АВ, состоящее в одновременном появлении этих событий. Событию АВ соответствует множество с элементами, принадлежа- принадлежащими одновременно множествам А и В, т. е. пересечение множеств А и В. Определение 1.7. Разностью событий А ж В называется событие А\В, состоящее в том, что событие А произойдет, а собы- событие В — нет, т. е. событию А\В соответствует множество, состоящее из элементов множества А, не принадлежащих множеству В. Определение 1.8. Событие А называется противоположным событию А, если оно заключается в непоявлении события А. Собы- Событию А соответствует множество всех элементов пространства ?1, не принадлежащих множеству А, т.е. А = Q\A. Пример 1.3. Пусть опыт G заключается в проведении стрельбы наугад по квадрату « О », точки которого являются элементарными событиями uj . Пусть попадание в квадрат «Q,» есть достоверное событие О,, а попадание в области «А» и « В » — события А и В. Тогда события А, А-\-В, АВ, А\В представлены на рис. 1.1. Графические изображения на плоскости соотношений между множествами называются диаграммами Венна. Определение 1.9. События А ж В называются несовмест- несовместными, если они не могут произойти одновременно в одном опыте, т. е. АВ = 0.
ОСНОВНЫЕ ПОНЯТИЯ 15 Рассмотрим основные свойства операций над событиями (свойства событий). Свойства событий А = П; 7) (А\В)(В\А) = 0; 2) 3) АА = А (ноне А2); 4) А + А = А (но не 2А); 5) А + 0 = А; 6) А0 = 0 ; 9) АВ = В А; 10) С(А + Б) = С А + СБ ; 11) А + В = 3-Б, АВ = 3 12) т4-1-74 = Г2 4. — ^4. В; Рис. 1.1 Определение 1.10. Класс Т подмнож:еств пространства ?1 называется алгеброй событий, если Q G Т и если АБ G ^, ^4 + .В G ^, А\Б G Т при любых A G Т, В еТ. Замечание 1.1. Алгебру событий иногда называют также ал- алгеброй Буля. 1.3. Вероятность события. Определение 1.11. Пусть при п-кратном повторении опыта G событие А произошло тпа раз. Частотой Wn(A) события А называется отношение Wn(A) = Свойства частоты Wn(A) 1) Wn(A) ^ 0, так как тпа ^0 и п > 0; 2) Wn(A) ^ 1, так как тпа ^ п; 3) если при п -кратном повторении опыта несовместные события А ж В появились соответственно тпа и тв раз, то = ^ + ™ = Wn{A) п п Априори (заранее, до опыта) частота Wn(A) является случайной, т. е. нельзя предсказать точное её значение до проведения данной
16 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I серии из п опытов. Однако природа случайных событий такова, что на практике наблюдается эффект устойчивости частот. Его суть заключается в том, что при увеличении числа опытов значение ча- частоты практически перестает быть случайным и стабилизируется око- около некоторого неслучайного числа Р(-А), соответствующего данному конкретному событию А в опыте G (точные формулировки приведе- приведены в § 13, теорема 13.6). Замечание 1.2. Число Р(-А) первоначально при становлении теории вероятностей называлось вероятностью события А в опы- опыте G. Введенное понятие указывает на то, что вероятность Р(-А) характеризует частоту появления события А при многократном по- повторении опыта G. Но частотное определение вероятности было неудобно по двум причинам: 1) стремление частоты события А к вероятности события происходит не в общепринятом смысле, а в вероятностном; 2) вычис- вычисление предельного значения Р(-А), к которому стремится частота, может быть невозможным вследствие значительных трудностей при проведении большого числа опытов. Поэтому рассмотрим так назы- называемое аксиоматическое определение вероятности. Определение 1.12. Класс Т подмножеств пространства Q, включающий в себя результаты сложения и умножения счетного числа своих элементов (т.е. замкнутый относительно этих операций), называется а-алгеброй. Элементы а -алгебры Т (т.е. подмножества пространства Q) называются случайными событиями (или просто событиями). Напомним, что множество А называется счетным, если между всеми элементами А и множеством натуральных чисел можно установить взаимно однозначное соответствие. Например, множество {1,1/2,... , 1/п,... } является счетным. Определение 1.13. Вероятностью события А называется числовая функция Р(-А), определенная на а -алгебре Т и удовле- удовлетворяющая следующим четырем аксиомам теории вероятностей. Аксиомы теории вероятностей А1. (Неотрицательность вероятности) Каждому событию A Е Е Т ставится в соответствие неотрицательное число Р(А), т.е. Р(А) ^ 0 для любого АеТ. А2. (Нормировка вероятности) Вероятность достоверного события равна единице, т. е. Р(Г2) = 1.
§ 2] ОСНОВНЫЕ СВОЙСТВА ВЕРОЯТНОСТИ 17 A3. [Конечная аддитивность вероятности) Для любых несовмест- несовместных событий А и В справедливо равенство А4. (Непрерывность вероятности) Для любой убывающей последо- последовательности А\ D A<i D ... D An D ... событий из Т, такой, что A\A<i • ... • Ап • ... = 0, имеет место равенство lim Р(Ап) = 0. П->-ОО Аксиомы А1—A3 тесно связаны со свойствами частоты. В дальней- дальнейшем аксиома А4 и предположение о замкнутости алгебры событий Т относительно счетного числа операций почти не используется. Отметим также, что аксиомы A3, А4 о конечной аддитивности и непрерывности вероятности могут быть заменены на эквивалентную аксиому о счетной аддитивности вероятности (см. п. 3.2). § 2. Основные свойства вероятности 2.1. Аксиоматические свойства. Определение 2.1. Если Р(А) = 1, но А не равно ?7, то говорят, что событие А в опыте G происходит почти наверное (п.н.). Определение 2.2. Если Р(А) = 0, то говорят, что событие А почти никогда не происходит в опыте G. Свойства Р(А) 1) Пусть Р(А) = 1. По аксиоме А2 Р(О) = 1, но из этого не следует, что А = ?1 (т.е. что А является достоверным событием). 2) Р@) = 0, т. е. вероятность невозможного события равна нулю. Во-первых, 0 G J7, поскольку а -алгебре Т принадлежит само событие Q и его дополнение Q = Q\?l = 0. Во-вторых, Q + 0 = = Q. Поэтому, с одной стороны, по аксиоме А2 получаем ~P(Q + 0) = = 1, с другой стороны, по аксиомам A3 и А2 имеем Q, • 0 = 0, так как собы- события ?1ж0 несовместны Отсюда следует, что Р@) = 0. 2 Кибзун А.И. и др.
18 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I 3) Пусть Р(А) = 0. По свойству 2)Р имеем Р@) = 0, но из этого не следует, что А = 0, т. е. событие А не обязательно является невозможным. 4) Если А С Б, то Р(-А) ^ Р(Б), т.е. вероятность монотонна. Представим множество Б как В = т4 + Б\А (рис. 2.1). По построению А(В\А) = 0, следовательно, события А и Б\^4 несовместны. Поэтому по аксиомам A3 и А1 имеем Р(Б) = Р(А) + Р(Б\А) ^ Р(А). 5) Р(-А) ^ 1 для любого А Е J7. Так как i С П, то из свойства 4)Р и аксиомы А2 следует Р(А) ^ P(fi) = 1. Рис. 2.1 Рис. 2.2 6) Р(А + Б) = Р(А) + Р(Б) - Р(АВ) для любых ДБ G f. Представим А в виде А = А\В + АБ. Очевидно, что (А\Б)(АВ) = = 0. Тогда по аксиоме A3 имеем Р(А) = Р(А\В) + Р(АБ), откуда Р(А\В) = Р(А)-Р(АВ). Аналогичным образом поступим с событием А + В . Имеем ^4 + Б = = Б + А\Б, причем В(А\В) = 0. Тогда из аксиомы A3 следует Р(А + В) = Р(Б) + Р(А\В). Подставляя в данное выражение формулу для Р(А\В), получаем требуемое. 7) Р(А + Б) ^ Р(А) + Р(Б) для любых А, В е Т. Из аксиомы А1 следует Р(АВ) ^ 0, поэтому по свойству 6)Р получаем Р(А + Б) = Р(Б) - Р(А) + Р(Б). По индукции можно получить неравенство 8) На основе аксиомы A3 по индукции можно показать, что если события Ai,... , Ап попарно несовместны, то г=1
§ 2] ОСНОВНЫЕ СВОЙСТВА ВЕРОЯТНОСТИ 19 9) Пусть события А ж В несовместны, т. е. АВ = 0. Тогда верно Р(С(А + В)) = V(CA) + V(CB). По предположению имеем (СА) (СВ) = 0 , так как АВ = 0 . И кроме того, по свойству событий 10) А имеем С (А + В) = С А + С В. Следовательно, по аксиоме A3 получаем (рис. 2.2) Р(С(А + В)) = V(CA + С В) = V(CA) + Р(СБ). 2.2. Свойства вероятности для полной группы событий. Определение 2.3. События Hi,... ,Нп в опыте G образуют полную группу несовместных событий, если они попарно несовмест- несовместны (H{Hj = 0 при i ф j) ив результате опыта произойдет хотя бы одно из событий Н{, г = 1, п, т. е. i^i + ... + Нп = ?7. События Hi,... , i^n называются гипотезами, если они образуют полную груп- группу несовместных событий и P(Hi) > 0, г = 1,п. Определение 2.4. Рассмотрим опыт Gr с конечным числом возможных исходов ?1 = {uji, ... , о;п} , где ooi — элементарные собы- события, образующие полную группу несовместных событий, появление которых равновероятно, т.е. Р(сс^) = р, i = l,n. Такие события cji ,... ,иоп называются случаями, а про опыт G говорят, что он сводится к схеме случаев. Определение 2.5. Рассмотрим в опыте G , сводящемся к схеме случаев, произвольное событие А, которое можно представить в виде суммы т случаев, т. е. А = со{1 + ... + со{т при т ^ п. Тогда такие слагаемые uj^ ,... , с^т называют случаями, благоприятствующими событию А (или благоприятными случаями). Определение 2.6. Условной вероятностью ~Р(А\В) собы- события А относительно события В, если Р(-В) > 0, называется веро- вероятность осуществления события А при условии, что событие В уже произошло. Условная вероятность определяется формулой Свойства Р(А) (продолжение) 10) Если события Hi,... , Нп образуют полную группу несовмест- несовместных событий, то Р(Ях) + ... + Р(ЯП) = P(#i + ... + Нп) = 1. Данное свойство непосредственно вытекает из определения 2.3, акси- аксиомы А2 и свойства 8)Р.
20 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I 11) Р(А) = 1 — Р(А). По определению А = п\А, поэтому А А = 0 . По свойству 12) А имеем А + А = ?1, т. е. события А ж А образуют полную группу несовместных событий. Следовательно, по свойству 10)Р: Р(А + -А) = 1. Так как А ж А несовместны, то по аксиоме A3 имеем: 1 = Р(^4 + А) = Р(А) + Р(-А), откуда следует искомая формула. 12) Г(А-\-В) = 1-Р(ХБ). По свойству 11) А имеем А + Б = 3х хБ. Поэтому из свойства 11)Р следует Р(А + Б) = 1 - Р(А + В) = 13) Р(АВ) = 1 - Р(А + В). Это следует из свойства 12)Р, если вместо событий А ж В рассмотреть соответственно события А ж В ж использовать свойство событий 12) А: А = А. 14) Если опыт G сводится к схеме случаев, то P(a;i) = р = 1/п, г = 1, п. Действительно, так как события o;i,... , о;п несовместны, то по аксиоме А2 и свойству вероятности 8)Р имеем 15) Если событие А представимо в виде суммы т благоприятных случаев из общего числа п случаев, то вероятность такого события на- находится по классической формуле вычисления вероятности: Р(-А) = = т/п. Действительно, Pf-A) = Pfo;- + + uj- ) = ~P(cj- ) + + Pfo;- ) = — Tl Пример 2.1. Опыт состоит в подбрасывании игральной кости (см. пример 1.1). Требуется найти вероятность выпадения четного числа очков (события А). В данном случае опыт сводится к схеме случаев, если в качестве элементарных событий щ , г = 1,6, взять положения верхней грани кости. Тогда п = 6, а т = 3, поскольку А = uj2 + CJ4 + uq . Таким образом, Р(А) = 1/2 . 16) Рассмотрим опыт G, сводящийся к схеме случаев, и предпо- предположим, что событиям А, В, АБ благоприятствуют соответственно ?тг^4 , пг# > 0, глав случаев из всех п возможных. Допустим, что событие В уже произошло. Это означает, что из всех возможных п случаев реально могло появиться только тв случаев, причем из них только глав случаев благоприятствуют событию А. Тогда ~Р(А\В) = . Действительно, получаем п глав Р(Б) п тв тв 17) Р(АВ) = Г(А)Г(В\А) = Р(Б)Р(А|Б). Данная формула следует из определения 2.6 и свойства коммутативности операции
§ 2] ОСНОВНЫЕ СВОЙСТВА ВЕРОЯТНОСТИ 21 умножения событий: АВ = В А. Действительно, Р(В)Р(А\В) = Р(АВ) = Р{ВА) = Р(А)Р(В\А). Одной из основных формул для подсчета вероятности случайного события является классическая формула, приведенная в свойстве 15)Р. В схеме случаев предлагается следующий порядок решения задач с помощью этой формулы. 1) Определить элементарные события, сводя опыт к схеме случаев. 2) Подсчитать количество п всех случаев. 3) Описать событие А, вероятность которого требуется найти. 4) Подсчитать число тпа случаев, благоприятствующих собы- событию А. 5) Воспользоваться классической формулой вычисления вероятно- вероятности Р(А) = гпа/п. Замечание 2.1. При выделении случаев исходят, как правило, из интуитивных соображений о симметрии исходов и их равновозмож- ности. 2.3. Типовые задачи. Задача 2.1. В отдел технического контроля поступила партия из 15 изделий, среди которых 5 бракованных. Для проверки качества партии наугад выбрано одно изделие. С какой вероятностью оно окажется бракованным? Решение. Перенумеруем все изделия и определим элементарные события (случаи) uji = {выбор г-го изделия}, г = 1, 15. Таких элементарных событий 15, т. е. п = 15. Опишем событие А, вероятность которого требуется найти: А = {выбор бракованного изделия}. Число элементарных событий, благоприятствующих событию А, равно количеству бракованных деталей, т. е. тпа = 5. Тогда согласно классической формуле вычисления вероятности Ответ. Р(А) = 1/3. Задача 2.2. Усложним предыдущую задачу. Предположим, что для проверки партии, состоящей из 15 изделий, среди которых
22 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I находятся 5 бракованных, выбираются 3 изделия. Партия считается бракованной, если бракуется хотя бы одно изделие. Требуется найти вероятность того, что партия будет забракована. Решение. Следуя предложенному выше порядку решения зада- задачи, определим элементарное событие в рассматриваемом опыте сле- следующим образом: Г последовательность из трех деталей, \ выбранных из 15 деталей }¦ Все такие элементарные события равновероятны и образуют полную группу несовместных событий, т. е. опыт сведен к схеме случаев. Для того чтобы подсчитать количество п всех возможных случаев, используем так называемую схему выбора без возвращения. Первую деталь для проверки можно выбрать 15 способами (по количеству имеющихся в партии деталей). При проверке для каждого способа выбора первой детали существует 14 способов выбрать вторую деталь (так как одна деталь, выбранная первой, уже отсутствует). Таким образом, при проверке общее количество способов выбора 2-х деталей равняется 15 • 14. Рассуждая далее аналогичным образом, получаем п = 15- 14- 13. Опишем теперь событие А, вероятность которого требуется найти: * _ Г в последовательности из трех выбранных  \деталей окажется хотя бы одна бракованная/ ' Рассмотрим событие А, противоположное событию А: -т_| в последовательности из трех выбранных 1 \деталей не окажется ни одной бракованной/ ' Подсчитаем число элементарных событий, благоприятствующих со- событию А. С этой целью повторим рассуждения, использованные для подсчета п. Выбирая детали только из 10 небракованных, получим т-д = 10 • 9 • 8. Тогда, используя классическую формулу вычисления вероятности, окончательно будем иметь 1U 15- •9- 14- 8 _ . 13 24 91 _ 67 91 Ответ. Р(А) = 67/91. Задача 2.3. Для 20 участников конференции, среди которых 12 российских, в гостинице забронировано 20 номеров. Из этих номеров
§ 2] ОСНОВНЫЕ СВОЙСТВА ВЕРОЯТНОСТИ 23 12 — с видом на море. Портье наугад выдает участникам конференции ключи от номеров. Найти вероятность того, что номера с видом на море достанутся 12 российским участникам конференции. Решение. Процедура выделения гостиничных номеров участни- участникам конференции представляет собой присвоение каждой фамилии в списке участников номера, выбранного наугад портье. Определим элементарное событие {последовательность из номеров аппартамен- "| тов, образованная согласно упорядоченному \ . списку участников конференции J Все такие элементарные события равновероятны и образуют полную группу несовместных событий, т. е. опыт сведен к схеме случаев. Для подсчета числа п всех таких случаев воспользуемся схемой выбора без возвращения. Получаем п = 20 • 19 • 18 • ... • 2 • 1 = 20!. Заметим, что мы получили известную в комбинаторике величину к\, равную количеству всех способов сформировать различные последо- последовательности из к элементов, т. е. числу всех возможных перестано- перестановок к элементов. Опишем событие А, вероятность которого требуется найти: {двенадцати российским участникам конференции доста- "| нутся номера с видом на море, а остальные номера > . будут распределены между оставшимися участниками J Найдем число тпа случаев, благоприятствующих событию А. Для этого распределим сначала номера с видом на море среди россий- российских участников конференции. Это можно сделать 12! способами, согласно рассуждениям, приведенным при подсчете п. На каждый способ распределить указанные номера среди российских участников конференции существует 8! способов распределить оставшиеся номе- номера среди остальных участников. Таким образом, общее количество элементарных событий, благоприятствующих событию А равняется 12! • 8!. Следовательно, тА = 12!-8!. Для нахождения ~Р(А) воспользуемся классической формулой ™а 8!12! Ответ. Р(А) = 8! 121/20!. Задача 2.4. Подбрасывают К игральных костей. Найти веро- вероятность получения суммы очков, равной: а) К; б) К + 1.
24 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I Решение, а) Предположим, что в данной задаче все кости занумерованы от 1 до К. Будем понимать под элементарным собы- событием _ Г последовательность из К цифр, соответству-1 \ющих числу выпавших очков на каждой кости/ ' Все такие элементарные события равновероятны и образуют полную группу несовместных событий, т. е. опыт сведен к схеме случаев. При подсчете числа п всех случаев воспользуемся схемой выбора с возвра- возвращением. На первой игральной кости число очков может появиться 6 способами (любая цифра от 1 до 6). Для каждого способа появления числа очков на первой кости существует 6 способов появления числа очков на второй игральной кости и т.д. (см. задачу 2.2). Таким образом, общее число всех возможных элементарных событий п = 6к. Опишем событие А, вероятность которого нужно найти: А = {сумма очков на К подброшенных костях равна К}. Заметим, что появление этого события эквивалентно тому, что на всех игральных костях выпало по одному очку. Очевидно, что это может произойти единственным способом, т. е. число элементарных событий, благоприятствующих событию А, равно единице (тпа = 1). Следовательно, согласно классической формуле вычисления веро- вероятности Д гпл= 1 v ; п 6К б) Поскольку опыт не изменился, элементарные события и вели- величина п остаются прежними. Изменяется лишь событие, вероятность которого требуется найти: В = {сумма очков на К подброшенных костях равна К + 1}. Событие В эквивалентно тому, что на К — 1 игральной кости выпа- выпадет по одному очку, а на одной игральной кости выпадет два очка. Подсчет числа элементарных событий, благоприятствующих собы- событию В, сводится, таким образом, к нахождению количества способов выбрать одну игральную кость из К , на которой должно выпасть два очка. Очевидно, что есть К таких способов. Следовательно, тв = К. Таким образом, Ответ, а) 1/6к ; б) К/6К .
§ 2] ОСНОВНЫЕ СВОЙСТВА ВЕРОЯТНОСТИ 25 Задача 2.5. Три студента МАИ, два студента МЭИ и четыре студента МГУ наугад рассаживаются в три вагона. Для каждого пассажира вероятность оказаться в любом из вагонов одинакова. Найти вероятности следующих событий: а) три студента МАИ окажутся в разных вагонах; б) два студента МЭИ окажутся в разных вагонах. Решение, а) Определим элементарное событие для рассматри- рассматриваемого в задаче опыта следующим образом: _ Г последовательность из номеров вагонов, образован- \ ная согласно упорядоченному списку пассажиров }¦ Все такие элементарные события равновероятны и образуют пол- полную группу несовместных событий, т. е. опыт сведен к схеме случаев. Для подсчета числа п всех случаев воспользуемся процедурой, опи- описанной в предыдущей задаче. В результате получим п = 39. Нас интересует вероятность события А = {три студента МАИ окажутся в разных вагонах}. Распределим сначала имеющиеся у нас три билета с номерами различных вагонов среди студентов МАИ. Действуя аналогично процедуре, описанной в задаче 2.3, получаем, что это можно сделать 3! способами. На каждый такой способ существует З6 способов приписать номера вагонов всем оставшимся пассажирам. Таким образом, тА = 3!36. В результате получаем ту(лл- ™л _ 3!36 _ 3! _ 2 б) В этой задаче нас интересует вероятность следующего события: В = {два студента МЭИ окажутся в разных вагонах}. Число всех случаев, связанных с опытом остается без изменения: п = = З9 . Для подсчета числа случаев, благоприятствующих событию В , воспользуемся сначала процедурой, предложенной в задаче 2.2, а именно, первый студент МЭИ может выбрать вагон тремя способами, а второй — двумя. Таких способов 3 • 2 . Оставшиеся пассажиры могут получить номера своих вагонов З7 способами. Поэтому гпв = 3 • 2 • З7.
26 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I Таким образом, Ответ, а) 2/9; б) 2/3. Задача 2.6. Предположим, что в каждом из трех вагонов есть ровно к мест, и каждый из трех студентов МАИ может занять любое из имеющихся мест. Найти вероятность того, что три студента МАИ окажутся в разных вагонах. Решение. Определим элементарное событие в рассматриваемом опыте следующим образом: _ Г последовательность из номеров мест, образованная 1 \ согласно упорядоченному списку студентов МАИ / ' Все такие элементарные события равновероятны и образуют полную группу несовместных событий, т. е. опыт сведен к схеме случаев. Для подсчета всех возможных случаев воспользуемся схемой выбора без возвращения. Тогда число п всех случаев, связанных с опытом, равно п = 3к-Cк- l)-Cfc-2). Нас по-прежнему интересует вероятность события А = {три студента МАИ окажутся в разных вагонах}. Однако число элементарных событий, благоприятствующих собы- событию А, теперь равно тА = Зк • 2к • к = 6к3. В результате получаем ГМ ^!2/с2 1 ] ~ п ~ п ~ Зк-(Зк-1)-(Зк-2) ~ (Зк - 1) • (ЗА; - 2) * Заметим, что при неограниченном увеличении числа мест в вагоне, т. е. при к —> сю , имеем lim Р(А) = lim —2 =- = - . к^оо V ^ к-^оо C-|).C- |) 9 Сравните полученный результат с ответом в задании а) задачи 2.5. 2/с2 Ответ. (ЗА; - 1) • (ЗА; - 2) '
§ 2] ОСНОВНЫЕ СВОЙСТВА ВЕРОЯТНОСТИ 27 Задача 2.7. В розыгрыше лотереи участвуют 100 билетов, среди которых 25 выигрышных. Какова вероятность остаться без выигрыша, приобретя 3 билета лотереи? Р е hi e н и е. Рассмотрим два способа решения этой задачи, отлича- отличающиеся определением элементарного события. Способ I. Определим элементарное событие следующим обра- образом: ио = {последовательность из номеров купленных билетов}. Все такие элементарные события равновероятны и образуют полную группу несовместных событий, т. е. опыт сведен к схеме случаев. Рассуждая так же, как в задаче 2.2, получим, что число всех случаев п = 100 • 99 • 98. Опишем событие А, вероятность которого нужно найти: А = {все три билета окажутся без выигрыша}. Тогда число случаев, благоприятствующих событию А, выражается следующим образом: тА = 75 • 74 • 73. В результате имеем 100 -99-98 Способ П. Определим в этой задаче элементарное событие по- другому. Для этого введем следующее понятие: под совокупностью будем понимать множество элементов, на котором не вводится порядок следования элементов. Рассмотрим в качестве элементарного события следующее со = {совокупность из трех лотерейных билетов}. Такой способ выбора элементарного события в данной задаче возмо- возможен, так как нас не интересует порядок, в котором приобретались лотерейные билеты, а интересует только их качественный состав (ко- (количество выигрышных среди них). Все такие элементарные события равновероятны и образуют полную группу несовместных событий, т. е. опыт сведен к схеме случаев. Поскольку из одной совокупности трех элементов (согласно ре- результату, полученному в задаче 2.3) можно получить 3! последователь- последовательностей, то общее число всех элементарных событий, определенных таким способом, будет в 3! раз меньше, чем было получено при использовании первого способа решения задачи, т. е. 100 -99-98 п= з! '
28 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I Полученная величина может быть представлена в следующем виде: 100! п = 3! A00-3)! Мы получили известную в комбинаторике формулу для числа соче- сочетаний из к элементов по I: 1\(к-1)\ ' т. е. для числа всех возможных способов выбрать / элементов из к имеющихся, если порядок выбора несуществен. Аналогичные рассуждения приводят к нахождению числа случаев, благоприятствующих определенному выше событию А: ^з 75! 3!G5-3)! ' Окончательно получаем 75 • 74 • 73 С300 100 -99-98 ГЛ гр ТУ ?} гр (^ I (^ \J I D С 1. U7C / 100 * Задача 2.8. Усложним, по сравнению с предыдущей задачей, правила лотереи. Пусть в лотерее осуществляется розыгрыш 6 но- номеров из 49. Порядок выпадения выигрышных номеров неважен. Участник лотереи выбирает 6 номеров из 49. Выигрыш выплачивается угадавшим 4, 5 или все 6 номеров. Определить вероятность угадыва- угадывания ровно четырех выигрышных номеров. Решение. Определим элементарное событие в данной задаче: ио = {совокупность 6 номеров из 49}. Все такие элементарные события равновероятны и образуют полную группу несовместных событий, т. е. опыт сведен к схеме случаев. Тогда получим (аналогично тому, как это сделано в предыдущей задаче) количество всех случаев п = С%. Опишем событие, вероятность которого требуется найти: А = {угадано 4 выигрышных номера}. После розыгрыша лотереи 49 участвующих в розыгрыше номеров делятся на две группы: 6 номеров — выигрышные и 43 номера — без выигрыша.
§ 2] ОСНОВНЫЕ СВОЙСТВА ВЕРОЯТНОСТИ 29 Для того чтобы произошло событие А, необходимо и достаточно выбрать 4 номера из 6 выигрышных (это можно сделать Cq спо- способами) и выбрать остальные 2 номера из 43, оставшихся без вы- выигрыша. Таким образом, общее число случаев, благоприятствующих событию А, может быть найдено следующим образом: тА = Ci ¦ С423. Воспользовавшись классической формулой, получим Ответ. Задача 2.9. Пусть Р(А) = Р(В) = 1/2. Верно ли, что Р(А\В) = = Р(В\А)? Решение. Пользуясь определением условной вероятности, полу- получим Поскольку в данном случае совпадают и числители, и знаменатели, то Р(А\В) = Р(В\А). Ответ. Верно. Задача 2.10. Пусть Н\, Н^, Н%, Н^ — равновероятные гипотезы. Являются ли гипотезами события Hi + Н2 и Н3 + i74? Решение. Необходимо проверить, выполняются ли для событий Hi + Н2 и Н3 + Н4 свойства, которым должны удовлетворять гипотезы. Проверим попарную несовместность этих событий: (Я! + Н2)(Н3 + Я4) = Н^з + НХНА + Н2Н3 + Я2Я4 = 0, так как Я1,Я2,Яз,Я4 — гипотезы, и поэтому они несовместны. Проверим, образуют ли эти события полную группу: (Я! + Я2) + (Я3 + Я4) = Hi + Я2 + Я3 + Я4 = п. Таким образом, (Hi + Я2) и (Я3 + Я4) образуют полную группу несовместных событий и Р(ЯХ + Я2) ^ Р(ЯХ) > 0, Р(Я3 + Я4) ^ ^ Р(Яз) > 0. Следовательно, эти события являются гипотезами. Ответ. Да, являются. Задача 2.11. Пусть Р(Б) > 0. Доказать, что Р(А\В) = 1 - -Р(А\В).
30 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I Решение. По свойствам событий 2) А, 12) А, 10) А и аксиоме A3: _ Р(В) _ Р(Ш?) _ Р((А + А)В) _ PjAB + АВ) _prx. 1 ТТ ~Щ ^KA Следовательно, Р(А\В) = 1-Р(А\В). Что и требовалось доказать. 3. Основные формулы вычисления вероятностей 3.1. Формула умножения вероятностей. Основной задачей теории вероятностей является вычисление вероятностей сложных событий с использованием вероятностей более простых событий. Теорема 3.1. Вероятность одновременного появления собы- событий А\,... , Ап выражается формулой умноэюения вероятно- вероятностей: Г(А1А2 •... • Ап) = Р(А1)Р(А2\А1) ..... P(An|^i • • • • • Ап_х), в которой вероятность каждого следующего по порядку события вычисляется при условии, что в рассматриваемом опыте произошли все предыдущие события. Доказательство. Проведем доказательство по индукции. Ес- Если п = 2, то утверждение верно по определению условной вероят- вероятности. Предположим, что формула справедлива для любых п ^ к. Тогда, рассматривая произведение к + 1 события, получаем Р(А1А2 ¦...¦ АкАк+1) = Р((А1А2 •... • Ак)Ак+1) = = Р(А1А2 ¦...¦ Ак)-р(Ак+1\А1А2 ¦... ¦ Ак) = Р(А1)Р(А2|А1) х ... 2 •... ¦ Ак). Таким образом, формула оказывается верной и для к + 1 сомножи- сомножителя. По индукции заключаем, что формула умножения вероятности верна. Определение 3.1. События А ж В называются независимы- независимыми, если ~Р(АВ) = P(A)P(i?). В противном случае события называ- называются зависимыми. Определение 3.2. Если любые два события из А\,... ,Ап независимы, то события А\,... , Ап называются попарно независимы- независимыми. События А\,... , Ап называются независимыми в совокупности,
§ 3] ОСНОВНЫЕ ФОРМУЛЫ ВЫЧИСЛЕНИЯ ВЕРОЯТНОСТЕЙ 31 или просто независимыми, если для любых /с = 1,п и 1 ^ z'i < ... ... < ik ^ n верно равенство Независимость событий не следует из их попарной независимости, но обратное утверждение верно. Пример 3.1. Пусть имеется тетраэдр, у которого первая грань выкрашена в красный цвет, вторая — в синий, третия — в желтый, а четвертая грань выкрашена частями в красный, синий и желтый. Пусть случаи ш*\_,Ш2,шз,Ша состоят в выпадении в опыте G одной из граней. Событие А состоит в появлении грани красного цвета, событие В — синего, и событие С — желтого цвета. Тогда Р(А) = = P(cji + uj4) = 1/2. Аналогично, Р(Б) = Р(С) = 1/2. Далее, Р(АВ) = Р(о;4) = 1/4. В то же время Р(А)Р(Б) = 1/4, т.е. Р(АВ) = Р(А)Р(??). Это значит, что события А ж В независимы. Аналогично устанавливается, что события А и С , а также события В и С независимы. Таким образом, события А, В, С являются попарно независимыми. Однако эти события не являются независимыми в совокупности. Действительно, Р(АВС) = P(w4) = 1/4, НО Р(А)Р(Б)Р(С) = 1/8. Пример 3.2. Если события А ж В независимы, то независимы также события i и Б, i и Б, А и В. Для событий А ж В имеем V{A) = Г(Ап) = Р(А(В + В)) = V(AB + АВ) = V{AB) + Р(АВ). Поэтому Р(АВ) = Р(А) — Р(АВ). Так как А ж В независимы, то Р(АВ) = Р(А) - Р(А)Р(В) = Р(А)Р(Б), т.е., согласно определению 3.1, события А ж В независимы. Незави- Независимость остальных событий доказывается аналогично. Утверждение справедливо и для произвольного количества независимых событий. Пример 3.3. Если несовместные события А ж В имеют ненуле- ненулевые вероятности, то они зависимы. Действительно, по условию АВ = = 0. Если бы А ж В были независимыми, тогда было бы верно Р(А)Р(Б) = Р(АВ) = Р@) = О, но левая часть равенства по условию нулю не равна. Следовательно, А ж В зависимы.
32 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I 3.2. Формула сложения вероятностей. Теорема 3.2. Вероятность появления в опыте хотя бы одного из событий Ai,... ,Ап выражается формулой слоэюения веро- вероятностей: Р(А1 + ... + An)=Pl-P2 + ... + (-l)n"Vn = г=1 где Pl=f2P(Ai), P2=E Ё P(AiAj),..., pn г=1 г=1 j=i-\-l Данная формула доказывается по индукции на основе свойства 6)Р, из которого следует формула сложения вероятностей для п = 2. При п = 3 эта формула принимает вид + Р(А3) - Если события Ai,... , Ап попарно несовместны, то вероятность произведения любой комбинации из этих событий равняется нулю и формула сложения вероятностей принимает вид (см. свойство 8)Р) г=1 Если события Ai в бесконечной последовательности -Ai,... ... ,т4^,... попарно несовместны, то выполняется следующее равенство: ) г=1 г=1 А °° Действительно, пусть А = ^ А^. Представим событие А в виде n, где Вп= i=n-\-l Тогда Г(А) = ^P(Ai) + Р(БП). Так как по построению Вх D г=1 оо D ^2 D ... D 5n Z) ... и ]^[ Бп = 0, то по аксиоме А4 получаем 71=1 P(i?n) —^ 0 при п —^ оо. Откуда и вытекает требуемое равенство, которое называется свойством счетной аддитивности вероятности.
§ 3] ОСНОВНЫЕ ФОРМУЛЫ ВЫЧИСЛЕНИЯ ВЕРОЯТНОСТЕЙ 33 Можно доказать и обратное утверждение, что при выполнении этого свойства выполняются также аксиомы A3, А4. Предположим, что события Ai,... , Ап совместны и независимы. Тогда = 1 г=1 Действительно, пусть п = 2. По свойству 11)Р имеем Р(^4 + В) = 1 — — Р(т4 • В). Так как А ж В независимы, а значит А ж В независимы также, то Р(^4 + В) = 1 — Р(А)Р(В). Общая формула доказывается по методу математической индукции. 3.3. Формула полной вероятности. Теорема 3.3. Пусть с опытом G связаны гипотезы Hi,... , Нп. Тогда вероятность появления произвольного события А в опыте G выражается формулой полной вероятности: Р(А) = JT Р(Щ)Р(А\Щ), где ~P(Hi) — вероятность гипотезы, ~P(A\Hi) — условная вероят- вероятность события А при условии, что справедлива гипотеза Hi, г = = Т~гг. Доказательство. Теорема доказывается следующим образом: Р(А) = Р(АП) = Р(А(Н! + ... + #„)) = Р(АНг + ... + АНп) = = Р(АЩ) + ... + Р(АНп) = Р(Я1)Р(Л|Я1) + ... + Р(Я„)Р(А|Я„). Замечание 3.1. Формула полной вероятности позволяет выра- выразить вероятность сложного события А через вероятности составля- составляющих его более простых событий АН{, г = 1, п. Данная формула используется в опытах, не сводящихся к схеме случаев. 3.4. Формула Байеса. Теорема 3.4. Пусть с опытом G связаны гипотезы Hi,... ,Hn. Предположим, что при проведении опыта произошло событие А, вероятность которого была Р(-А) > 0. Пусть до опыта G были известны лишь априорные вероятности гипотез V(Hi), г = 1,п, и соответствующие им условные вероятности ~Р(А\Н{), i = 1,тг, события А. В этом случае условная 3 Кибзун А.И. и др.
34 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I (апостериорная) вероятность P(Hi\A) гипотезы Hi при условии, что событие А произошло, вычисляется по формуле Байеса: Р(Нк)Р(А\Нк) к=1 Доказательство. Данная формула вытекает из свойств условной вероятности. Действительно, по свойству 17)Р имеем Р(Щ)Р(А\Щ) = Р(А)Р(Щ\А), откуда следует, что Далее остается заменить Р{А) формулой полной вероятности. Замечание 3.2. Формула Байеса предназначена для вычисле- вычисления апостериорных вероятностей гипотез после проведения опыта с учетом полученной информации (событие А уже произошло). 3.5. Формула Бернулли. Рассмотрим последовательность из п независимых испытаний (опытов) с двумя исходами (событиями) А и А, которые называются соответственно «успехом» и «неуспехом», причем Р(А) = р Е @,1), Р(А) = q = 1 — р. Построенная схема испытаний называется схемой Бернулли, а сам опыт — опытом Бернулли. Теорема 3.5. Пусть опыт G производится по схеме Бернул- Бернулли. Тогда вероятность Рп{т) события Ап{т), состоящего в том, что при п повторениях опыта G событие А произойдет ровно т раз, вычисляется по формуле Бернулли: Рп(т) = Р(Ап(т)) = С™ршA-р)п-т. Продемонстрируем справедливость этой формулы для п = 3 и т = 1. В этом случае РзA) = Р(АзA)) = С3У A -р? = ЗрA-рJ. Представим событие А3A) в виде суммы несовместных событий: где события Ai и Ai состоят в том, что в г-м опыте, г = 1,2,3, наблюдается или не наблюдается «успех». Поэтому получаем ^зA) =
§ 3] ОСНОВНЫЕ ФОРМУЛЫ ВЫЧИСЛЕНИЯ ВЕРОЯТНОСТЕЙ 35 Так как события Ai,A2,As , а также А\, А^^А^ независимы, то Р3A) = Р^ОР^Р^з) + Р(А1)Р(А2)Р(А3) Поэтому РзA) = ЗрA — рJ = СзрA — рJ • В общем случае формула Бернулли доказывается аналогично. Пример 3.4. Монету подбрасывают 5 раз. Найти вероятность того, что «герб» выпадет ровно три раза. В этом случае п = 5, т = = 3, р = 1/2, q = 1 — р = 1/2. Тогда по формуле Бернулли 3.6. Типовые задачи. Задача 3.1. Из колоды карт E2 карты) наугад вынимается одна. Являются ли зависимыми события А = {эта карта — туз} и В = {эта карта имеет пиковую масть} ? Решение. По определению операции произведения событий АВ = {эта карта — туз пик}. Следовательно, по классической формуле теории вероятностей Р(АВ)=12, Р(А)=±, Р(В)=||. Так как выполняется равенство Р(АВ) = Р(А)Р(Б), то события А ж В независимы. Ответ. События А ж В независимы. Задача 3.2. Пусть Р(С) = 1/2. Сравнить вероятности Р(А + В\С) и Р(А\С) + Р(Б|С). Решение. Пользуясь определением условной вероятности и фор- формулой сложения вероятностей, получаем _ Р(АС + ВС) _ ^ Р(С)
36 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I Но поскольку вероятность ~Р{АВ\С) неотрицательна, то Р(А + В\С) ^ Р(А|С) Ответ. Задача 3.3. Пусть Р(А) = 1/7, Р(Б) = 4/21. Верно ли, что + В) ^ 1/3. Ответ обосновать. Решение. Согласно формуле сложения вероятностей имеем Р(А + В) = Р(А) + Р(В) - Р(АВ) < Р(А) + Р(В) = \ + ± = ^ = |. Ответ. Верно. Задача 3.4. Пусть Hi,H2,Hs — равновероятные гипотезы. Произошло событие А = Н2 + Н% . Образуют ли систему гипотез события Hi -\- Н2 и f/з ? Если да, то найдите их апостериорные вероятности. Решение. Необходимо проверить, выполняются ли для событий Н\ + Н2 и i73 свойства, которым должны удовлетворять гипотезы. Проверим попарную несовместность этих событий: (#! + Я2)Я3 = #1#3 + #2#3 = 0, так как Hi, H2, Н^ — гипотезы, и поэтому они несовместны. Проверим, образуют ли эти события полную группу: (Я! + Я2) + Н3 = Hi + Н2 + Щ = п. Таким образом, {Hi + H2) и Н% образуют полную группу несовмест- несовместных событий и P(iJi +Я2) ^ P(-H"i) > 05 Р(^з) > 0- Следовательно, эти события являются гипотезами. Апостериорными вероятностями этих гипотез являются P(iiZi + + Н2\А) и Р(Яз|А). Найдем эти условные вероятности. Р((Я!+Я2)(Я2+Я3)) = Р(Я2) Р(Я2+Я3) Р(Я2+Я3)* Р(Я3) P(tf2 + tf3) ' Аналогично получим
§ 3] ОСНОВНЫЕ ФОРМУЛЫ ВЫЧИСЛЕНИЯ ВЕРОЯТНОСТЕЙ 37 В силу равновероятности гипотез Hi, Hi, Н% Р(Нг) = Р(Я2) = Р(Я3) = ±, Р(Я2 + Я3) = Р(Я2) + Р(Я3) = |. Следовательно, Р(Я! + Н2\А) = Р(Н3\А) = Щ = 0,5. Ответ. События Hi + Н^ и Н^ образуют систему гипотез, апостериорные вероятности этих гипотез равны P(-Hi + Н2\А) = Задача 3.5. Система состоит из двух элементов с надежностями Pi и р2 соответственно. Элементы соединены параллельно и выходят из строя независимо друг от друга. Система работает. Найти вероят- вероятность того, что неисправен первый элемент. Решение. Рассмотрим следующие случайные события: А = {первый элемент работает нормально} , В = {второй элемент работает нормально} , С = {система работает} . Согласно условию задачи Р(-А) = pi , Р(-В) = Р2 • Используя свойство противоположного события 11)Р и формулу умножения вероятностей, получим вероятность события С: Требуется найти Р(А|С). Согласно определению условной веро- вероятности случайного события Ответ. Искомая вероятность равна т^ г? г • 1 - A - Pi)(l - Р2) Задача 3.6. Некто нашел чужую пластиковую карточку банко- банкомата. Найти вероятность того, что двух попыток, предоставляемых банкоматом, хватит для того, чтобы отгадать неизвестный ему четы- четырехзначный код. Решение. Рассмотрим событие А = {двух предоставленных попыток хватит, чтобы угадать код}.
38 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I Это событие может быть представлено следующим образом: А = Ах + AiA2, где Ai = {код впервые угадан с г-ж попытки}, г = 1,2. События А\ и А\ — несовместны по определению противоположных событий, поскольку соответствующие множества благоприятных элементарных событий не пересекаются. Множество элементарных событий, благо- благоприятствующих событию А\А2 , состоит из элементарных событий, одновременно благоприятствующих событиям А\ и А2 . Следователь- Следовательно, это множество не пересекается с множеством элементарных собы- событий, благоприятствующих событию А\ . Таким образом, события А\ и А\А2 несовместны. Для нахождения Р(-А) воспользуемся формулой сложения веро- вероятностей для несовместных событий: Вероятность события А\ находим, используя схему выбора с возвра- возвращением (см. задачу 2.4): По формуле умножения вероятностей 2) = Р(А1)Р(А2\А1), где p(A1) = l-P(A1) = l-±, P(A2\A1)= r^j. Число п = 104 — 1 есть количество всевозможных четырехзначных кодов, за исключением одного, проверенного при первой попытке. Таким образом, 1 2 104 - 1 104 ' Ответ. P(A) = 2/104. Задача 3.7. Средний процент невозвращения в срок кредита, выдаваемого банком, составляет 5%. Найти вероятность того, что при выдаче банком 100 кредитов проблемы с возвратом денег возникнут не менее, чем в двух случаях. Р е ш е н и е. Воспользуемся схемой Бернулли. Под опытом понима- понимается получение кредита, который был выдан банком. В каждом опыте событие А = {кредит не возвращается в срок}
§ 3] ОСНОВНЫЕ ФОРМУЛЫ ВЫЧИСЛЕНИЯ ВЕРОЯТНОСТЕЙ 39 происходит с вероятностью р = 0,05 . Назовем наступление события А «успехом». Указанный опыт проводится п = 100 раз в одних и тех же условиях. Требуется определить вероятность события В = {кредит не будет возвращен в срок хотя бы в двух случаях}. В этой задаче В = {кредит не будет возвращен в срок менее, чем в двух случаях}. Событие В может быть представлено в виде следующей суммы событий: л , ч Г ровно в т случаях из 100 кредит! т^-^- где Aioo(m) = < г }-, га = 0, 1. ^ v J У не будет возвращен в срок J ' ' События Аюо(О) и т4юоA) несовместны. Воспользуемся форму- формулой сложения вероятностей где вероятности событий Аюо(О) и АюоA) вычисляются по формуле Бернулли P(A100(m)) = C10@,05)m@,95I00-m, m = ОД. C.1) Таким образом, р(Б) = С^0,05)°@,95I0Ч^ Следовательно, Р(Б) = 1 - Р(Б) = 1 - @,95I00 - 5 • @,95)" « 0,96. Ответ. Р(Б)^0,96. Задача 3.8. В торговую фирму поступили телевизоры от трех фирм изготовителей в соотношении 2:5:3. Телевизоры, поступающие от первой фирмы, требуют ремонта в течение гарантийного срока в 15% случаев, от второй и третьей — соответственно в 8% и 6% случаев. Найти вероятность того, что поступивший в торговую фирму телевизор потребует ремонта в течение гарантийного срока. Решение. В опыте, рассматриваемом в задаче, можно выделить два этапа. На первом этапе осуществляется продажа торговой фирмой телевизора, изготовленного в одной из трех фирм, упомянутых в условии задачи. Второй этап представляет собой эксплуатацию теле- телевизора, в результате чего он либо ломается в течение гарантийного срока, либо нет.
40 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I Построим систему гипотез как возможных исходов первого этапа опыта: Щ = {проданный телевизор был произведен г-й фирмой}, г = 1, 3. Очевидно, что построенная система событий удовлетворяет требо- требованиям, предъявляемым к гипотезам, так как эти события являются несовместными (телевизор не может быть изготовлен двумя фирмами одновременно), и никакие другие исходы первого этапа опыта невоз- невозможны (так как в продажу поступили телевизоры только указанных фирм). Определим событие, вероятность которого требуется найти: А = {проданный телевизор потребует гарантийного ремонта}. Согласно условию задачи телевизоры поступили в продажу от трех фирм в пропорции 2:5:3. Обозначим через х количество телевизоров, приходящихся на одну долю в указанной пропорции. Тогда общее количество телевизоров, поступивших в продажу: 2х + Ъх + Зх = Юж. При этом количество телевизоров, поступивших от первой фирмы равно 2х , следовательно, согласно классической формуле вычисления вероятностей: Аналогично найдем вероятности остальных гипотез: Р(Я2)=1, Р(Я8)=А. Условные вероятности события А относительно каждой из гипотез заданы в условии задачи: = 0,15, Р(А\Н2) = 0,08, Р(А|Я3) = 0,06. Воспользовавшись формулой полной вероятности, получаем Р(А) = Y^ Р{Щ)Р(А\Щ) = - • 0,15 + - • 0,08 + — • 0,06 = 0,088. i=i Ответ. Р(А) = 0,088. Задача 3.9. После осмотра больного врач считает, что равновоз- можно одно из двух заболеваний С или D. Для уточнения диагноза больного направляют на анализ, исход которого дает положительную
§ 3] ОСНОВНЫЕ ФОРМУЛЫ ВЫЧИСЛЕНИЯ ВЕРОЯТНОСТЕЙ 41 реакцию при заболевании С в 30 процентах случаев, а при заболева- заболевании D — в 20 процентах случаев. Анализ дал положительную реакцию. Какое заболевание становится более вероятным? Решение. В данной задаче опыт, так же, как и в предыдущей задаче, может быть разбит на два этапа. На первом этапе врач ставит диагноз. Систему гипотез можно сформулировать следующим образом: Hi = {пациент имеет заболевание С}, i^2 = {пациент имеет заболевание D}. Для ответа на поставленный в задаче вопрос нужно найти апосте- апостериорные вероятности гипотез. Априорные вероятности гипотез, со- согласно условию задачи, равны: = 0,5, Р(Я2)=0,5. Рассмотрим событие А = {анализ дал положительную реакцию}. Для нахождения апостериорных вероятностей гипотез, т.е. ~Р(Н\\А) и V(H2\A), воспользуемся формулой Байеса. Для того чтобы восполь- воспользоваться формулой Байеса, необходимо найти условные вероятности события А относительно каждой из гипотез. Согласно условию зада- задачи они равны соответственно: Р(А\Нг) = 0,3, Р(А|Я2) = 0,2. Воспользуемся формулой Байеса: P(Hl\A) = 2Р(Я1)Р(А|Я1) = gf = 0,6, ^=0,4. Так как ~P(Hi\A) > P(i^2|^4), то заболевание С становится более вероятным. Ответ. Более вероятно заболевание С.
42 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I 4. Задачи для самостоятельного решения 1. Пончик отправился в путешествие на воздушном шаре. Через каждые 10 минут полета у Пончика возникает желание подкрепиться, и он начинает в случайном порядке просматривать свои карманы до тех пор, пока не найдет съестное. Найти вероятность того, что: а) поиск к -го пряника начнется с пустого кармана, если у Пончика 17 карманов, в которых изначально лежало по одному прянику; б) Пончик первые два раза будет подкрепляться пряниками, если в двух из имеющихся у него 17 карманов лежит по одному прянику, а в 15 — по одной конфете; в) Пончик первые два раза будет подкрепляться пряниками, если у него 10 карманов, в одном из которых — два пряника, а в остальных — по две конфеты. 2. Владелец пластиковой карточки банкомата забыл последние три цифры кода и набрал их наугад. Какова вероятность набора верного номера, если известно, что все эти три цифры различны? 3. Из десяти вариантов контрольной работы, написанных на отдельных карточках, наугад выбирают восемь и раздают восьми студентам, сидящим в одном ряду. Найти вероятность следующих событий: А = {варианты 1 и 2 останутся неиспользованными} , В = {варианты 1 и 2 достанутся рядом сидящим студентам} , С = {будут распределены последовательные номера вариантов} . 4. Полная колода карт E2 листа) делится наугад на две равные части по 26 карт. Найти вероятность следующих событий: А = {в каждой пачке по два туза} , В = {все тузы в одной пачке} , С = {в одной пачке будет один туз, а в другой — три} . 5. В предположении, что день рождения любого человека равно- равновероятен в любой день года, найти вероятность того, что все люди в компании из г человек родились в различные дни. Подсчитать эту вероятность для г = 23 . 6. Из шести букв разрезной азбуки составлено слово АНАНАС. Ребенок, не умеющий читать, рассыпал эти буквы и затем собрал в произвольном порядке. Найти вероятность того, что у него снова получится слово АНАНАС? 7. Компания занимается организацией отдыха для любителей рыбной ловли. На озере, где находится туристическая база компании, оборудовано для рыбной ловли 30 мест. Набрана группа из 5
§ 4] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 43 отдыхающих, которым, независимо друг от друга, предоставлено право выбора места рыбной ловли. В предположении, что все места одинаково привлекательны для любого отдыхающего, вычислить вероятность того, что все отдыхающие выберут различные места. 8. Из цифр 1, 2, 3 наугад составляется шестизначное число. Найти вероятность того, что в этом числе цифра 1 будет встречаться один раз, цифра 2 — два раза, цифра 3 — три раза. 9. В условиях предыдущей задачи найти вероятность того, что получится четное число, содержащее всего одну цифру 2. 10. Рассмотрим карточную игру, когда колода из 32 карт (без шестерок) раздается трем игрокам, получающим по 10 карт, а 2 карты откладываются в сторону. Какова вероятность того, что отложенные в сторону карты окажутся тузами. 11. В гостинице имеется шесть одноместных номеров. На эти номера имеется 10 претендентов: 6 мужчин и 4 женщины. Гостиница следует правилу FIFO: пришедшие раньше облуживаются раньше. Все претенденты пребывают в гостиницу в случайном порядке. Какова вероятность того, что номера получат: а) все шесть претендентов мужского пола; б) четверо мужчин и две женщины; в) по крайней мере одна из четырех женщин. 12*. Парадокс де Мере. Подбрасывают три игральные кости и подсчитывают сумму выпавших очков. Де Мере заметил, что появление одиннадцати очков возможно при шести комбинациях F-4-1, 6-3-2, 5-5-1, 5-4-2, 5-3-3, 4-4-3) и появление двенадцати очков возможно при шести комбинациях F-5-1, 6-4-2, 6-3-3, 5-5-2, 5-4-3, 4-4-4). Объяснить парадоксальность ситуации, которая состоит в том, что вероятности появления в сумме 11 и 12 очков не равны. 13. Восемнадцать команд, участвующих в турнире, по жребию разбиваются на две подгруппы по девять команд в каждой. Найти вероятность того, что а) все шесть лидирующих команд окажутся в одной подгруппе; б) шесть лидирующих команд распределятся по три в разные группы. 14. При проведении фуршета на стол поставили пять бокалов шампанского, три бокала белого вина и два бокала красного вина. К столу подошли семь человек и взяли по одному бокалу. Найти вероятность того, что на столе осталось по одному бокалу каждого напитка. (Будем предполагать, что для каждого из гостей все напитки одинаково привлекательны).
44 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I 15. Каждый из 50 штатов представлен в сенате США двумя сенаторами. Предстоит выбрать некоторый комитет из 50 сенаторов. Найти вероятности следующих событий: а) штат Айова будет представлен в комитете; б) все штаты будут представлены в комитете. (Будем предполагать, что все сенаторы имеют равные шансы быть избранными в этот комитет). 16*. В городе проживает п + 1 человек. Один из них, узнав новость, сообщает ее другому, тот — третьему и т.д., причем каждый человек передает новость наугад выбранному жителю города, за исключением того, от кого он ее услышал. Найти вероятность того, что новость будет передана г раз без возвращения к человеку, который узнал ее первым. 17. Для рекламы своей продукции производитель решил снабдить специальными купонами 10 000 изделий из произведенных 500 000 изделий. Покупатель, отославший в адрес компании 3 купона, полу- получает 1 дополнительный экземпляр продукции, 4 купона — 2 допол- дополнительных экземпляра, более четырех купонов — 3 дополнительных экземпляра. Покупатель одновременно приобрел пять экземпляров продукции компании и решил участвовать в предложенной рекламной акции. Найти вероятность того, что он получит дополнительно не менее двух экземпляров продукции. 18. При формировании группы для проведения специального социологического опроса необходимо отобрать 10 человек, удовлетво- удовлетворяющих определенным требованиям. Вероятность того, что наугад выбранный человек удовлетворяет этим требованиям, равна 0,2. Най- Найти вероятность того, что при отборе придется тестировать ровно 20 человек. 19. Игральная кость подброшена дважды. Зависимы ли случай- случайные события А = {число очков при первом бросании равно 5} и В = = {сумма очков при двух бросаниях равна 9} ? Ответ обосновать. 20. Пусть Р(А) = 1/2, Р(Б) = 1/3. Верно ли, что Р(АВ) ^ 3/8? Ответ обосновать. 21. События А и В независимы, Р(А) = Р(В) = 1/4. Найти 22. Вакансия, предлагаемая безработному биржей труда, удовле- удовлетворяет его с вероятностью 0,01. Сколько нужно обслужить безработ- безработных, чтобы вероятность того, что хотя бы один из них найдет работу, была бы не ниже 0,95 ? 23. Из 25 вопросов, включенных в программу экзамена, студент подготовил 20. На экзамене студент наугад выбирает 5 вопросов из 25.
§4] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 45 Для сдачи экзамена достаточно ответить правильно хотя бы на 3 вопроса. Найти вероятность того, что студент сдаст экзамен. 24. Некоторая система состоит из шести элементов, отказы которых независимы (рис. 4.1). Вероятности безотказной ра- работы (надежности) элементов равны соответственно Р2 = Рз = Ра = Ръ = 1/2, Р1 = 2/3, р6 = 3/4. Найти вероятность отказа ров- ровно двух элементов в параллельном соединении при условии, что си- система работает нормально. 25. Отдел надзора отделения центрального банка курирует дея- деятельность ряда коммерческих банков. При сдаче квартальной отчет- отчетности серьезные финансовые нарушения обнаруживаются в среднем у 5% банков. На проверку выбрано три банка. Найти наиболее вероят- вероятное число банков с серьезными нарушениями финансовой отчетности среди выбранных. 26. Вероятность рождения мальчика равна 0,515. На семейном совете постановили, что дети в семье будут рождаться до появления второго мальчика. Найти вероятность того, что в семье будет четверо детей. 27. Отдел технического контроля предприятия бракует каждую партию из 100 деталей, если из 5 деталей, наугад выбранных из партии, хотя бы одна окажется бракованной. Партия содержит 5% брака. Найти вероятность для одной партии деталей быть забракованной. (Решить задачу двумя способами: используя формулу умножения вероятностей и используя только классическую формулу вычисления вероятностей). 28. Пусть Р(А) = 1/2. Найдется ли такое событие Л, чтобы Р(АВ) > 1/2? Ответ обосновать. 29. Пусть Р(-А) = 1/2. Можно ли найти такое событие В, чтобы Р(А\В) > Р(А)? Ответ обосновать. 30. Пусть Р(А) = Р(Б) = 1/2. Верно ли, что Р(А\В) ^ Р(В\А)? Ответ обосновать. 31. Пусть события А и В — независимы и Р(АВ) = ~Р(В) = 1/4. Найти 32. Пусть Р(А) = 1/2, Р(Б) = 2/3. Верно ли, что Р(А + В) 1/6? Ответ обосновать.
46 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I 33. Пусть Р(А) = Р(Б) = 1/4. Верно ли, что Р(А + В) будет больше в том случае, когда А и В независимы, чем когда А ж В несовместны? Ответ обосновать. 34. Пусть Р(А) = Р(-В) = 2/3. Чему равна сумма 35. События А и В несовместны, причем Р(А) > 0. Совместны или несовместны события А и В? Ответ обосновать. 36. Монета подбрасывается до первого выпадения герба. Чему равно наиболее вероятное число подбрасываний? 37. Из колоды карт C6 карт) подряд вытаскиваются две карты. Рассматриваются события: ^4={первая карта имеет пиковую масть}, В ={ове карты красного цвета}. Зависимы ли события А и В? Ответ обосновать. 38. В ящике имеется две партии по 100 деталей, в каждой из которых по 10 бракованных деталей. Из ящика извлечена одна деталь. Рассмотрим следующие события: А = {извлеченная деталь — из первой партии}, В= {извлеченная деталь — бракованная}? Зависимы ли события А и В ? Ответ обосновать. 39. В ящике имеются две партии по 100 деталей. В первой партии — 10 бракованных деталей, во второй — 20 бракованных. Из ящика извлечена одна деталь. Зависимы ли случайные события А = {извлеченная деталь — из первой партии} и В = {извлеченная деталь — бракованная}? Ответ обосновать. 40. Схема электрической цепи представлена на рис. 4.2, где pi, г = 1,3, является вероят- вероятностью безотказной работы (надежностью) г-го элемен- элемента. Пусть надежности эле- элементов схемы равны Рис. 4.2 pi = 0,8, р2 = 0,7, рз = 0,6. Найти вероятность безотказной работы (надежность) схемы. 41. Три независимых эксперта делают прогноз стоимости акции компании, ошибаясь при этом с одинаковой вероятностью р . Найти р , если вероятность того, что хотя бы один из них ошибается, равна 0,271. 42. В шкафу находится 9 однотипных новых приборов. Для про- проведения опыта берут наугад три прибора и после работы возвращают их в шкаф. Внешне новые и использованные приборы не отличаются. Р\ — — Pi Рз —1 —1
§4] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 47 Найти вероятность того, что после проведения трех опытов в шкафу не останется новых приборов. 43. Зададим надежности работы элементов электрической цепи: Pi=0,8, р2 = 0,7, Рз = 0,6, р4 = 0,5, р5 = 0,4, рб = 0,3. а) Найти надежность схемы, приведенной на рис. 4.3; б) Найти надежность схемы, приведенной на рис. 4.4. Рис. 4.3 Рис. 4.4 44. Вероятность превысить личный рекорд с одной попытки для данного спортсмена равна р. Найти вероятность того, что на соревнованиях спортсмен превысит свой личный рекорд, если разрешается делать две попытки. 45. В группе учатся 10 студентов. Для решения задачи у доски любого из них могут вызвать с равной вероятностью один раз в течение занятия. В группе три отличника. Найти вероятность того, что вторую задачу к доске пойдет решать отличник, при условии, что первую задачу тоже решал отличник. 46*. По данным переписи населения Англии и Уэльса A891 г.) установлено, что темноглазые отцы и темноглазые сыновья (со- (событие АВ) составили 5% обследованных пар, темноглазые отцы и светлоглазые сыновья (событие АВ) — 7,9% пар, светлоглазые отцы и темноглазые сыновья (событие АВ) — 8,9% пар, свет- светлоглазые отцы и светлоглазые сыновья (событие АВ) — 78,2% пар. Найти связь между цветом глаз отца и сына, то есть найти Р(В\А), Р(В\А), Р(В\А), Р(Щ). 47. Двое поочередно бросают монету. Выигрывает тот, у которого раньше выпадет «герб». Определить вероятности выигрыша для каждого из игроков. 48*. После экзамена на столе преподавателя осталось п зачеток тех студентов, которые не сдали экзамен. Какова вероятность того, что, наугад забирая зачетки, хотя бы один студент возьмет свою зачетку ¦? 49*. Задача Банаха. Для прикуривания Банах пользовался двумя коробками спичек, доставая наугад ту или иную коробку. Через
48 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I некоторое время он обнаружил, что одна коробка пуста. Найти вероятность того, что во второй коробке осталось к спичек, если изначально в каждой коробке было по п спичек? 50. В кармане лежат 5 монет достоинством в 50 коп., 4 монеты по 10 коп. и 1 монета — 5 коп. Наугад берут 3 монеты. Какова вероятность того, что в сумме они составляют не более одного рубля? 51. Фирма рассылает рекламные проспекты восьми потенциаль- потенциальным партнерам. В результате такой рассылки в среднем у каждого пятого потенциального партнера возникает интерес к фирме. Найти вероятность того, что это произойдет: а) в трех случаях; б) не более чем в трех. 52. Лицензия отбирается у любого торгового предприятия, как только торговая инспекция в третий раз обнаружит серьезное на- нарушение правил торговли. Найти вероятность того, что лицензия будет отобрана после пятой проверки. Известно, что вероятность обнаружения нарушения при одной проверке равна 0,2 и не зависит от результатов предыдущих проверок. 53. Вероятность рождения мальчика равна 0,515 . Найти вероят- вероятность того, что в семье, где четверо детей, не менее двух девочек. 54. В микрорайоне девять машин технической службы. Для беспе- бесперебойной работы необходимо, чтобы не меньше восьми машин были в исправном состоянии. Считая вероятность исправного состояния для всех машин одинаковой и равной 0,9, найти вероятность бесперебой- бесперебойной работы технической службы в микрорайоне. 55. В среднем каждый десятый договор страховой компании завершается выплатой по страховому случаю. Компания заключила пять договоров. Найти вероятность того, что страховой случай наступит: а) один раз; б) хотя бы один раз. 56. Подбросили две игральные кости. Какие из представленных ниже наборов событий образуют систему гипотез? 1. Hi = {на 1-й кости выпало одно очко} ,... , Hq = {на 1-й кости выпало шесть очков} . 2. Hi = {на обеих костях выпало по одному очку} ,... , Hq = {на обеих костях выпало по шесть очков} . 3. Hi = {на 1-й кости выпало четное число очков} , H<z = {на 2-й кости выпало нечетное число очков} . 4. Hi = {на 2-й кости выпало четное число очков} , Н<2 = {на 2-й кости выпало нечетное число очков} . 57. Из 30 билетов, включенных в программу экзамена, студент знает 5. Когда ему выгоднее сдавать экзамен первым или вторым (с точки зрения увеличения вероятности сдачи экзамена)?
§4] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 49 Таблица 4.1 X\Y А В А 5:3 1:2 В 2:1 1:2 58. Две компании X ж Y производят однотипную продукцию и конкурируют на рынке сбыта. Перед каждой из них стоит задача модификации производства. Существует два возможных пути измене- изменения технологии: А и В . Вероятность того, что компания X выберет путь А, равна 0,4. Для компании Y эта вероятность равна 0,7. Ком- Компании выбирают пути изменения технологии независимо друг от друга. В таблице приведе- приведены оцененные экспертами шансы на победу в конкурентной борьбе для компании X в соот- соответствии с выбором компаниями путей изменения технологии. Найти вероятность победы компании X в конкурентной борьбе. 59. Надежности блоков системы, представленной на рис. 4.5, равны соответственно ^JО pi = 0,7, р2 = 0,7, р3 = 0,6, р4 = 0,5, р5 = 0,5. Рис. 4.5 Найти вероятность безотказной работы заданной схемы соединения блоков. 60. Подбрасываются две игральные кости. Образуют ли систему гипотез следующие события: А ={на первой кости выпало одно очко}, В ={сумма очков на двух костях равна 9}? 61. Пусть события Hi,... ,Ню образуют систему равновероят- равновероятных гипотез. Найти P(iJi + Ню). 62. Может ли априорная вероятность гипотезы быть больше соответствующей апостериорной? Ответ обосновать. 63*. Два независимых претендента Z и L на пост губернатора края завершают предвыборную кампанию. Каждый из них, незави- независимо от действий другого, может успеть вы- выступить только в одном из городов Р и М. Эксперты-политологи считают, что выступле- выступления претендентов обязательно состоятся, и оце- оценивают вероятность того, что L предпочтет город Р , как равную 2/3. Вероятности выбора городов Р и М другим претендентом одина- одинаковы. В табл. 4.2 показано как, по мнению экспертов, распределяются шансы L по отношению к Z одержать победу на выборах в зави- зависимости от города выступления. Найти вероятность того, что победу одержит L. 64. В ящике лежит 20 теннисных мячей, в том числе 12 новых и 8 игранных. Из ящика извлекают наугад два мяча для игры. После игры Таблица 4.2 L\Z Р М Р 3:1 1:1 М 2:1 1:2 4 Кибзун А.И. и др.
50 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I мячи возвращают обратно в ящик. После этого из ящика вынимают еще два мяча для следующей игры. Оба мяча оказались неигранными. Найти вероятность того, что первый раз тоже играли новыми мячами. 65. За истекший период в торговую фирму поступали телевизо- телевизоры от трех фирм-поставщиков в следующей пропорции: 1:3:6. Каж- Каждая фирма дает на свои телевизоры гарантию, идентифицируя их по серийному номеру и дате поставки. Телевизоры первой фирмы- поставщика требуют ремонта в течение гарантийного срока в 15% случаев, второй и третьей — соответственно в 10% и 7% случаев. Про- Проданный телевизор требует гарантийного ремонта, однако потеряны документы, идентифицирующие фирму-поставщика. В какую фирму имеет смысл обратиться в первую очередь? 66. Может ли в формуле полной вероятности быть бесконечное число гипотез, а следовательно, и бесконечное число слагаемых? 67. Можно ли для нахождения вероятности события, связанного с опытом, сводящимся к схеме случаев, использовать формулу полной вероятности? Ответ обосновать. 68. Может ли сумма всех априорных вероятностей гипотез оказаться больше суммы всех апостериорных вероятностей этих гипотез? Ответ обосновать. 69. Могут ли апостериорные вероятности всех гипотез, кроме одной, оказаться нулевыми, если априорные вероятности этих гипотез одинаковы? Ответ обосновать. 70. Пусть события Их^Н^^ъ образуют систему равновероятных гипотез. Произошло событие Н\ . Вычислить апостериорные вероят- вероятности всех гипотез. 71. Вывести из формулы полной вероятности классическую формулу вычисления вероятности. 72. Завод изготавливает изделия, каждое из которых с вероят- вероятностью р имеет дефект. В цехе изделия осматриваются с равными вероятностями одним из двух контролеров. Первый обнаруживает имеющиеся дефекты с вероятностью р\ , а второй — с вероятностью Р2 . Известно, что одно из изделий забраковано. Найти вероятность того, что оно забраковано: а) первым контролером; б) вторым кон- контролером. 73. Для подготовки к экзамену студенту предложено 20 вопросов. Билет содержит два вопроса. Комплектование билетов вопросами осуществляется случайным образом. Студент подготовил 15 вопросов. Найти вероятность того, что он сдаст экзамен, если для этого достаточно ответить правильно на два вопроса своего билета или на один вопрос своего билета и один вопрос по выбору преподавателя.
R\L Ri U 1:3 2:1 L2 3:2 1:2 § 4] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 51 74. На предприятии работают 10 рабочих шестого разряда, 15 рабочих пятого разряда и 5 рабочих четвертого разряда. Вероятность того, что изделие, изготовленное рабочим соответствующего разряда, будет одобрено ОТК равна соответственно 0,95, 0,9 и 0,8. Найти вероятность того, что изделие, проверенное ОТК, будет одобрено, при условии, что производительность всех рабочих одинакова. 75. Представители двух фракций Государственной Думы (R и L) претендуют на пост председателя вновь создаваемого комитета. Согласно утвержденному регламенту, выборы должны проводиться альтернативным голосо- Таблица 4.3 ванием по двум кандидатурам (по одной от каждой фракции). У каждой фракции есть по две кандидатуры, обладающие равными шан- шансами быть выдвинутыми в качестве претен- претендента на этот пост. Эксперты оценили шансы фракции R по отношению к L получить пост председателя комитета в зависимости от предложенных кандидатур Li, Ri, г = 1, 2 (см. табл. 4.3). Найти вероятность того, что победу одержит фракция L . 76. На склад поступила однотипная продукция с трех фабрик. Объемы поставок относятся соответственно как 2:5:3. Известно, что нестандартных изделий среди продукции первой фабрики — 3%, второй — 2%, третьей — 1%. Найти вероятности следующих собы- событий: а) взятое наугад со склада изделие окажется нестандартным; б) взятое наугад со склада изделие произведено первой фабрикой, если известно, что оно оказалось нестандартным. 77. Имеется ящик, в котором лежат 20 коробок по 10 карандашей. При вскрытии ящика 4 коробки уронили, и грифели карандашей в них сломались. Однако все 20 коробок были сданы на склад, откуда затем взяли 2 коробки и раздали карандаши ученикам. Найти вероятность того, что доставшийся ученику карандаш имеет сломаный грифель. 78. Две машинистки печатали рукопись, посменно заменяя друг друга. Первая в конечном итоге напечатала 1/3 всей рукописи, а вто- вторая — остальное. Первая машинистка делает ошибки с вероятностью 0,15, а вторая — с вероятностью 0,1. При проверке на 13-й странице обнаружена ошибка. Найти вероятность того, что ошиблась первая машинистка. 79. Пассажир может обратиться за получением билета в одну из трех касс. Вероятности обращения в каждую кассу зависят от их местоположения и равны соответственно р\ = 1/3, р2 = 1/6, рз = = 1/2. Вероятность того, что к моменту прихода пассажира билеты, имевшиеся в кассе, будут распроданы, для первой кассы равна Р\ = = 3/4, для второй кассы — Р^ = 1/2, для третьей кассы — Р3 = = 2/3. Пассажир направился в одну из касс и приобрел билет. Найти вероятность того, что это была первая касса.
52 СЛУЧАЙНЫЕ СОБЫТИЯ [ГЛ. I 80. На экзамен пришли 10 студентов. Трое из них подготовлены отлично, четверо — хорошо, двое — удовлетворительно, один — плохо. В экзаменационных билетах имеется 20 вопросов. Отлично подготовленный студент может ответить на все 20 вопросов, хорошо подготовленный — на 16, удовлетворительно — на 10, плохо — на 5. Студент, сдавший экзамен, ответил на все три заданных вопроса. Найти вероятность того, что этот студент подготовлен: а) отлично; б) плохо. 81. Среди пациентов туберкулезного диспансера 15% принадле- принадлежат к первой категории больных, 66% — ко второй и 19% — к третьей. Вероятности возникновения заболевания, в зависимости от категории больных, равны соответственно 0,12, 0,09, 0,2. Найти: а) вероятность возникновения заболевания у наугад выбранного пациента диспансера; б) вероятность принадлежности к третьей категории больных пациента диспансера, у которого обнаружено заболевание. 82. Два независимых претендента Z и L на пост губернатора края завершают предвыборную компанию. Каждый из них, незави- независимо от действий другого, может успеть высту- Таблица 4.4 пить только в одном из городов Р или М. Эксперты-политологи считают, что выступле- выступления претендентов обязательно состоятся, и оце- оценивают вероятность того, что L предпочтет город Р как 2/3. Вероятности выбора горо- городов Р и М другим претендентом одинаковы. В табл. 4.4 показано, как, по мнению экспертов, распределяются шан- шансы L по отношению к Z одержать победу на выборах в зависимости от города выступления. Найти вероятность того, что оба претендента выступили в городе Р, если известно, что победу одержал Z. 83. В урне находятся 4 белых и 6 черных шаров. Из нее три раза наугад вынимают по одному шару. Требуется найти вероятность того, что все три вынутых шара окажутся белыми (событие А), при выполнении двух разных условий: а) извлеченные из урны шары обратно не возвращаются; б) после каждого извлечения шар возвращается обратно. 84. Три радиостанции, независимо друг от друга, передают самолету один и тот же сигнал. Вероятности того, что самолетом будут приняты эти сигналы, соответственно равны: 0,9, 0,8, 0, 75. Найти вероятность того, что самолет примет посылаемый ему сигнал. 85. Пусть имеется пять урн. В двух из них лежит по одному белому и трем черным шарам, а в трех урнах — по два белых и два черных шара. Наугад выбирается некоторая урна и из нее вынимается шар. Найти вероятность того, что шар окажется белым. L\Z Р М Р 4:3 1:1 М 3:1 1:3
ГЛАВА II СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 5. Основные понятия 5.1. Функция распределения. Пусть на пространстве элемен- элементарных событий ?1 определена а -алгебра Т. Определение 5.1. Случайной величиной (СВ) Х(оо) называ- называется функция элементарного события со с областью определения Q и областью значений Ш1 такая, что событие {uj : X{uj) ^ х} принад- принадлежит а -алгебре Т при любом действительном х Е К1 . Значения х функции X(uj) называются реализациями СВ Х(оо). Случайные величины будем обозначать прописными (большими) латинскими буквами X, Y, Z, а их возможные значения (реализа- (реализации) — соответствующими строчными (малыми) буквами ж, у, z. Определение 5.2. Законом распределения СВ называется лю- любое правило (таблица, функция), позволяющее находить вероятности всех возможных событий, связанных с СВ. Рассмотрим вероятность Р{о; : Х(ио) ^ х} для различных х G М . Определение 5.3. Функция определенная для всех х G М , называется функцией распределения СВ Х(и). Данная вероятность Fx(x) определена, поскольку рассматрива- рассматриваемые события принадлежат классу Т (см. определение 1.13). Да- Далее для простоты записи мы будем обозначать X = X(uS), {X ^ ^ х} = {uj : X(uj) <: х}, F(x) = Fx{x) = Р{Х ^ х} . Замечание 5.1. Функция распределения является одной из форм закона распределения для СВ всех типов и однозначно опреде- определяет СВ. Далее вместо фразы «СВ, имеющая функцию распределения F[x) » будем говорить для краткости: «СВ с распределением F[x) ».
54 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II Свойства F(x) 1) F{x) определена для всех х Е К1 по определению 5.3. 2) 0 ^ F(x) ^ 1 для всех х Е К1. Так как F(x) — вероятность, то данное свойство следует из свойства 5)Р и аксиомы А1. 3) F(-oo) = 0, F(oo) = 1. Пусть Вп = {X <: -п} , п = 1, 2,... оо Очевидно, что {X ^ —оо} = Y[ Вп = 0. Поэтому по аксиоме А4: п=1 F(-oo) = lim P(Bn) = 0. Пусть теперь Ап = {X ^ п} л Вп = п\Ап , п—)-оо где п = 1,2,... Тогда Лп удовлетворяет аксиоме А4, и поэтому по аксиоме A3 получаем F(+oo) = lim P(An) = 1 — lim PEn) = 1. n—>-oo n—>-oo 4) F(x2) — F(x\) = P{a?i < X ^ ^2} , если x<i > x\. Поскольку X ^ ж2} = 0, то по аксиоме A3: F(>2) = P{X ^ ж2} = F(>i) + P{^i < X Отсюда и следует утверждение. Если F[x) непрерывна, то F(x2)-F(x1) = 5) F(x2) ^ F(xi) для x2 > X\, т.е. F{x) не убывает. Это следует из свойства 4)F(x): F(x2) = F(xi) + P{a?i < X ^ ж2} ^ .F(a?i), так как P{^i < X ^ ж2} ^ 0 по аксиоме Al. 6) F{x) = lim F(x + e) при e > 0 , т. e. F(x) — непрерывная справа ?—УО функция. Это свойство можно доказать, основываясь на аксиоме А4. 5.2. Дискретные случайные величины. Определение 5.4. СВ называется дискретной, если множество ее возможных значений счетно. Пример 5.1. Пусть опыт G состоит в подбрасывании двух монет, а элементарным событием и: является положение упавших монет. Тогда число выпавших «гербов» есть С В X(uj) с конечным числом возможных значений {0,1,2}, т.е. является дискретной случайной величиной. Определение 5.5. Простейшей формой закона распределения дискретной СВ является ряд распределе- Таблица 5.1 д ния pk = Р{Х = Xk\ , k = 0,п, который задается аналитически или таблицей (см. табл. 5.1). Здесь в верхней строке рас- расположены по возрастанию все возможные различные значения жо,... , хп дискретной СВ X, а в нижней — соответствующие им вероятности ро •> • • • iPn • X р Хо Ро Хп Рп
§5] ОСНОВНЫЕ ПОНЯТИЯ 55 Имеет место равенство ро + • • • + Рп = 1 > так как события {X = = а?о}, • • • , {X = хп} несовместны и образуют полную группу. Это равенство называют условием нормировки. Графическое изображение ряда распределения называют много- многоугольником распределения (см. рис. 5.1). Замечание 5.2. Распределение вероятностей аналогично поня- понятию «распределение единичной массы вдоль бесконечного стержня Ох», используемому в механи- механике (этим, в частности, можно объяснить использование в тео- теории вероятностей термина «рас- «распределение»). Для дискретного распределения возможна следу- р0 рх р2 ющая механическая интерпрета- интерпретация: на оси Ох распределена : i - XXX единичная масса так, что массы ° 1 Ро,...,рп сосредоточены в от- АР РпЛ Рп Рис. 5.1 ,хп соот- соотдельных точках хо, ветственно. Определение 5.6. Единичной ступенчатой функцией или функцией Хевисайда называется функция вида (рис. 5.2). о, 1, х < О, х > 0. —> X Рис. 5.2 Рис. 5.3 Для дискретной СВ, используя ряд распределения и 1{х), можно построить функцию распределения: F(x) = pol(x - х0) + ... + РпКх - хп). Функция распределения дискретной СВ является ступенчатой (рис. 5.3), причем в точках разрыва F(x) величины скачков равны вероятностям ро ? • • • ? Рп соответствующих реализаций хо,... ,хп СВ X.
56 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II 5.3. Непрерывные случайные величины. Определение 5.7. СВ X с непрерывной функцией распреде- распределения Fx(x) называется непрерывной. Определение 5.8. Плотностью распределения (плотностью вероятности) СВ X называется неотрицательная кусочно непрерыв- непрерывная функция /х(ж), для которой при любом х Е Ш1 выполняется соотношение Fx(x)= j fx{t)dt. — OO Для простоты дальнейших обозначений будем писать Определение 5.9. СВ, у которой существует плотность веро- вероятности, называется абсолютно непрерывной. Из определения 5.8, используя правило дифференцирования ин- интеграла с переменным верхним пределом, получаем, что в точках непрерывности плотности f(x) производная функции распределения совпадает с плотностью, т.е. F'(х) = f(x). Кроме абсолютно непрерывных СВ существуют непрерывные СВ, называемые сингулярными, которые не имеют плотности вероятно- вероятности. В дальнейшем такие СВ не рассматриваются, а под непрерывны- непрерывными СВ будем подразумевать абсолютно непрерывные СВ. Плотность вероятности является одной из форм закона распределения для непре- непрерывных СВ. Пример 5.2. Пусть СВ X непрерывна. Вычислим Р{Х = х} для произвольного фиксированного х Е R. По аксиоме А4 имеем Р{Х = х} = lira Р{х - е < X ^ х} = lim (fx(x) - Fx(x - ej) = 0. ?—УО ?—УО \ / ?>0 ?>0 Таким образом, для непрерывной СВ вероятность того, что она примет в опыте некоторое наперед заданное значение, равна 0. Свойства f[x) 1) f(x) ^ 0 для всех х Е М1, т.е. выполняется условие неотрица- неотрицательности плотности. Это свойство следует из определения 5.8. + ОО 2) f{x)dx = 1, т.е. выполняется условие нормировки плот- — оо X ности. Поскольку F{x) = f(x)dx, то согласно свойству 3)F(x) — оо + ОО получаем f(x) dx = F(oo) = 1.
§ 5] ОСНОВНЫЕ ПОНЯТИЯ 57 х2 3) f(x)dx = P{a?i ^ X ^ ж2} . По свойству 4) F(x) и согласно примеру 5.2 имеем х2 с2 х2 хг f(x)dx= f(x)dx— f(x)dx = F(x2) — F(xi) = . 4) Рассмотрим СВ Y = <^(-Х"), где tp(x) — гладкая строго возрастающая функция скалярного аргумента х , а X — непрерывная СВ с плотностью fx (х). Тогда плотность распределения СВ Y имеет вид fY(y) = /х(Ф(у))Ф'(у), где ф(у) = у~1{у) — обратная по отношению к ip{x) функция. Действительно, по определению 5.3 имеем = J f — оо Наконец, fY(y) = ip{x) и бы- быстрого возрастающие dx= замена переменной хнау: х = ф(у) У -1 h ФШ = \y)dy. !х{Ф(у))Ф'{у)<1у) = /х(Ф(у))Ф'(у). Пусть теперь ip(x) — гладкая строго убывающая функция. Тогда +00 = J fx(x)dx = Иу) оо у = \1х{Ф{у))Ф'{у)<1у = 1- | 1х(Ф(у))Ф'(у)<1у, У fv(y) = ^ (l - { = -1х(Ф(у))Ф'(у). Таким образом, для гладкой строго монотонной функции находим = !х(Ф{у))\Ф'{у)\-
58 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II Пример 5.3. Рассмотрим СВ Y = аХ + 6, где СВ X имеет плотность fx(x), причем а ф 0. В данном случае ф(у) = (у — Ь)/а. Поэтому фг (у) = 1/а. Пользуясь свойством 4) f(x), получаем 5.4. Числовые характеристики случайных величин. Пусть плотность f(x) непрерывной СВ X такая, что сходится интеграл \x\f(x)dx. — оо + оо Определение 5.10. Число тх = М[Х] = xf(x)dx называ- — оо ется математическим ожиданием (МО) непрерывной СВ X. + ОО Замечание 5.3. В механике число xf(x)dx соответствует — оо координате центра масс тела, имеющего единичную массу, распреде- распределенную по оси Ох с плотностью f(x). По аналогии величину М[Х] иногда называют средним значением СВ X . Физическая размерность М[Х] совпадает с размерностью СВ X. Для дискретной СВ X с конечным числом значений математиче- математическое ожидание определяется следующим образом: тх = М[Х] = J2 Pk%k, где рк = Г{Х = хк}. к=о Аналогично определяется МО дискретной СВ со счетным числом значений. Для СВ Y = <р(Х), где X - непрерывная СВ, МО СВ Y вычисляется следующим образом: + ОО М[<р(Х)]= | <p(x)f(x)dx, — оо если интеграл абсолютно сходится. Если X — дискретная СВ, то 8 = 0
§ 5] ОСНОВНЫЕ ПОНЯТИЯ 59 Доказательство этого факта основано на сведениях, изложенных в курсе математического анализа. Определение 5.11. Начальными vr и центральными fir мо- моментами порядка г непрерывной СВ X называются числа + ОО vr = М[ХГ] = [ xrf{x) dx, r = 1, 2,... , 1Лг=М[(Х-тх)г]= I (x-mx)rf(x)dx, r = 2,3,... Для дискретной СВ с конечным числом значений интегралы в определении 5.11 заменяются суммами: k=0 k=0 Определение 5.12. Центральный момент второго порядка Ц2 называется дисперсией СВ X и обозначается как dx = D[X] = \±2 . Дисперсия dx характеризует степень рассеивания реализаций СВ X около ее МО. Определение 5.13. Средним квадратическим отклонением (СКО) СВ X называют величину ах = л/dx ^ 0. ° А Определение 5.14. СВ Х= X — тх называется центриро- * д ° / ванной, а СВ Х = Х / &х называется нормированной. Свойства тх и dx 1) М[с] = с и D[c] = 0, если с — константа. Действительно, пусть X — дискретная СВ, принимающая значение с с вероятностью 1, т.е. Р{Х = с} = 1. Тогда М[Х] = сР{Х = с} = с. Аналогично, Т>[Х] = (с - М[с]JР{Х = с} = 0. 2) М[сХ] = сМ[Х] , если с — константа. Пусть X — непрерывная СВ, тогда + ОО + М[сХ] = cxf(x) dx = с xf(x) dx = 3) М[Х + с] = тх + с, если с — константа, так как для непрерывной СВ +ОО = f (x + c)f(x)dx = [ xf(x)dx+ f cf(x)dx =
60 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II 4) |М[Х]| ^ М[|Х|], поскольку для непрерывной СВ ОО +ОО f xf(x)dx ^ [ \x\f(x)dx = M[\X\]. = М \ Х ~ тх 5) М[Х] = 0, В[Х] = 1. Действительно, М[Х] = М \ * поэтому по свойствам 2)тх и 3)тх получаем М[Х] = 0 и D[jf] = М[(Х -М[Х}J} = \ М[(Х - тхJ} = Пусть функция (р(х) = ^2 ак(рк(х) • Тогда, если М[(рк(Х)] к=1 существуют для всех к = 1,п, то М[(/?(Х)] = У^ а&М[у?&(Х)]. к=1 Действительно, в случае непрерывной СВ X, используя линейные свойства интеграла, получаем + ?° п м[<р(х)]= (j: .I fe=i \ к=1 _^ к=1 7) D[X] = М[Х2] — т2^ . Действительно, по свойству 6) тх имеем = М[(Х - тхJ} = М[Х2} - 2М[Х]тх + т2х = М[Х2} - т2х. 8) ЩсХ] = с2Т>[Х], D[c + X] = Т>[Х], где с - константа. 9) Пусть СВ X имеет конечное математическое ожидание и рас- распределение СВ обладает свойством симметрии, т. е. график плотности вероятности (для непрерывной СВ X) или многоугольник распре- распределения (для дискретной СВ X) симметричен относительно прямой х = с. И тогда М[Х] = с. Свойства 2)mj-6)mj, доказанные выше для непрерывных СВ, справедливы также и для дискретных СВ.
§ 5] ОСНОВНЫЕ ПОНЯТИЯ 61 5.5. Характеристическая функция. Определение 5.15. Характеристической функцией СВ X на- называется комплекснозначная функция вида М[«*] где t G 1R , г2 = — 1. Если СВ X — непрерывная, то gx{t) = | eitxfx(x)dx, — оо если СВ X — дискретная с конечным числом значений, то п gxyfc) — / Рк& к • к=0 Аналогично определяется gx(t) для дискретной СВ со счетным числом значений. Характеристическая функция представляет собой преобразование Фурье плотности вероятности fx(x) СВ X. Поэтому обратное преобразование Фурье приводит к соотношению + ОО fx(x) = ^ J e-itxgx(t)dt. Таким образом, для непрерывной СВ задание gx(t) равносильно заданию fx(x) и наоборот. Для простоты обозначений в дальнейшем будем писать g(t) = gx(t) • Рассмотрим основные свойства характеристической функции. Для простоты изложения доказательство этих свойств будем проводить только для непрерывных СВ. Свойства g(t) 1) \g(t)\ ^ 1 для всех t G М1 . Так как eltx = costx + zsintx, то + ОО \eitx\2 = cos2 to + sin2 to = 1, поэтому \g{t)\ ^ f \eltx\f{x) dx = 1. — oo + OO 2) g@) = 1, поскольку eit0 = 1 и g@) = I f(x) dx = 1.
62 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II 3) vT = M функцию g(t): t=0 . Продифференцируем г раз = | »го;гейа!/(х) da; = irM [XV* Отсюда при t = 0 получаем указанную формулу. 4) Пусть Y = аХ + 6, где X — СВ с плотностью fx{%) и характеристической функцией дх (t). Тогда grit) = М [е"(аХ+6)] = eitbM [eitaX] = eitbgx(at). 5.6. Квантиль. Определение 5.16. Квантилъю уровня р функции распре- распределения F{x) СВ X называется минимальное значение хр, при котором функция распределения F[x) не меньше значения р, где ре @,1), т.е. хр = тш{ж: F(x) ^ p}, p G @,1). На рис. 5.4 указаны квантили уровней а, /3 и 7 некоторой функции распределения F{x). Рис. 5.4 Рис. 5.5 Если функция распределения строго монотонна и непрерывна, то квантиль является единственным решением уравнения F(xp) = р. Определение 5.17. Квантиль уровня р = 1/2 называется ме- медианой. Если плотность распределения существует, симметрична относи- относительно оси Оу и строго положительна на связном множестве (отрезке
§5] ОСНОВНЫЕ ПОНЯТИЯ 63 или оси Ож), то Хр = — х\-р . Действительно, пусть СВ Y = —X. При сделанных предположениях Fy(x) = Fx(x), поэтому ур = хр для оо любого р. Далее, так как fy(x) = fx(x) и fx(x) dx = р, то ур = Xi_p = —Ж1_р . Поэтому Хр = —xi_p (рис. 5.5). Замечание 5.4. Квантиль является одной из основных стати- статистических характеристик, используемых в математической статистике (см. гл. V, VI). 5.7. Типовые задачи. Задача 5.1. Известно, что Р{Х > 3} = 1/3. Найти i*xC). Решение. По определению функции распределения Следовательно, FxC) = 1 — Р{Х > 3} . Поэтому Ответ. FxC) = 2/3. Задача 5.2. Для СВ Y ж X заданы ряды распределений в виде табл. 5.2 и 5.3. Таблица 5.2 Таблица 5.3 X р -1 1/2 0 1/2 Y Р 0 1/2 1 1/2 Сравнить Fx(FY(l/2)) и FY(Fx(l/2)). Решение. Используя ряды распределений, соответственно полу- получаем: FY{l/2) = P{Y < 1/2} = Р{У = 0} = 1/2, Fx(l/2) = P{X < 1/2} = Аналогично, = -1} + {X = 0}) = = Р{Х = -1} + Р{Х = 0} = 1. Fx(FY(l/2))=Fx(l/2) = l, FY(Fx(l/2)) = FYA) = Р{У < 1} = P({F = 0} + {Y = 1}) = 1. Ответ. Fx(FY(l/2)) = FY(Fx(l/2)).
64 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II Задача 5.3. Даны функции: Являются ли эти функции плотностями вероятности? Решение. Здесь необходимо проверить выполнение условий неотрицательности и нормировки. У первой функции не выполнено условие неотрицательности, так как fi(x) ^ 0. У второй функции не Г 1 выполнено условие нормировки, так как интеграл — A + sin x) dx — оо расходится. Наконец, третья функция является плотностью, так как она неотрицательна и + ОО +ОО | /зО) dx = - | 2 dx = - arctgx = 1. Ответ. Плотностью распределения является только /з(ж). Задача 5.4. Известно, что случайная величина X, принимаю- принимающая два значения a?i = 2 и #2 = 3, имеет математическое олсидание, равное 2,2 . Построить ряд распределения СВ X , найти дисперсию и построить график функции распределения. Решение. Пусть Р{Х = 2} =р, Р{Х = 3} = 1 — р. Используя определение математического ожидания Таблица 5.4 X р 2 0,8 3 0,2 получаем уравнение 3 — р = 2,2, откуда на- находим р = 0,8. Ряд распределения представ- представлен в табл. 5.4. Теперь вычисляем дисперсию: Т>[Х] = B - 2,2J • 0,8 + C - 2,2J • 0,2 = 0,16. Fx(x) 0,8 Рис. 5.6 Ответ. Ряд распределения приведен в табл. 5.4, D[X] = 0,16, график функции распределения приведен на рис. 5.6.
§5] ОСНОВНЫЕ ПОНЯТИЯ 65 Задача 5.5. Сделано два высокорисковых вклада — 20 млн руб. в компанию А и 18 млн руб. в компанию В. Компания А обещает 40% годовых, но может обанкротиться с вероятностью 0,3, компания В обещает 30% годовых, но может обанкротиться с вероятностью 0,2. Будем считать, что банкротства компаний независимы. Составить ряд распределения случайной величины X, равной сумме вкладов, полученных от двух компаний через год. Найти математическое ожидание и дисперсию случайной величины X . Решение. Согласно условию задачи СВ X может принимать следующие значения: Xi = 0, если обе компании обанкротятся; х2 = 20 + 0,4 • 20 = 28, если обанкротится только компания В; х% = 18 + 0,3 • 18 = 23,4, если обанкротится только компания А; Х4 = 28 + 23,4 = 51,4, если ни одна из компаний не обанкротится. Для построения ряда распределения случайной величины X достаточно найти вероятности событий {X = Х{}, г = 1, 4. Рассмотрим дополнительно события: А = {Компания А обанкротится}, В = {Компания В обанкротится}. Тогда Согласно формуле умножения вероятностей, а также учитывая независимость событий А и В, будем иметь Р{Х = Х1} = р(А) • Р(Б) = 0,3 • 0,2 = 0,06. Аналогично найдем вероятности оставшихся событий. Имея в виду, что события А и В так же независимы, как и события i и 5, получим Р{Х = х2} = Р(А • В) = Р(А) • Р(Б) = 0,7 • 0,2 = 0,14, Р{Х = х3} = Р(А • В) = Р(А) • Р(Б) = 0,3 • 0,8 = 0,24, Р{Х = х4} = Р(А • В) = Р(А) • Р(Б) = 0,7 • 0,8 = 0,56. Таким образом, имеем ряд распределения случайной вели- величины X (см. табл. 5.5). По опре- определению математическое ожида- ожидание С В X может быть найдено следующим образом: Таблица 5.5 X р 0 0,06 23,4 0,24 28 0,14 51,4 0,56 М[Х] = ]Г хгРг = 38,32. г=1 5 Кибзун А.И. и др.
66 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II Найдем также дисперсию СВ X : щх}= у:(хг- г = 252,25. Ответ. М[Х] = 38,32, Т>[Х] = 252,25. Задача 5.6. Плотность вероятности случайной величины X выглядит следующим образом: 3 о, х\ > h. Найти h, М[Х], F{x), D[2X + 3], М[Х2 - ЗХ + 2]. Решение. Для нахождения /г воспользуемся условием нормиров- + ОО ки, согласно которому f(x) dx = 1. В данном случае 2 7 ij JU х dx= -- —h Таким образом, /г3 = 1, и поэтому h = 1. Для нахождения функции распределения воспользуемся формулой, связывающей плотность f(x) с функцией распределения F(x): F{x)= dt. Тогда F(x) = 0, если х G (—оо, —1]. X Если х е (-1,1], то F(x) = [ -t2dt= - О3 + 1). -1 Если ж G A, +оо), то F(x) = [ t2 dt = 1. -i Таким образом, о, хе (-оо,-1], 1, 1, A,оо]. E.1)
§5] ОСНОВНЫЕ ПОНЯТИЯ 67 Для нахождения М[Х2 — ЗХ + 2] и D[2X + 3] воспользуемся свойствами математического ожидания и дисперсии. Получим М[Х2 - ЗХ + 2] = М[Х2} - ЗМ[Х] + 2, D[2X + 3] = 4D[X]. Выразив М[Х2] через М[Х] и D[X], получим М[Х2} = (M[X]J + D[X]. Таким образом, М[Х2 - ЗХ + 2] = D[X] + (М[Х]J - ЗМ[Х] + 2. Вычислим E.2) E.3) 1 = | J -1 4 x3dx = \Х- = 0, -1 -|-CXJ B[X] = f (x - M[X]Jf(x)dx = О 4 7 - ж da; = - — ^ J Z О -1 -1 32 25 Заметим, что математическое ожидание случайной величины X мож- можно было не вычислять, так как график плотности f(x) симметричен относительно вертикальной прямой х = 0, и следовательно, согласно свойству 9)тх имеем М[Х] = 0. Подставив найденные значения М[Х] и D[X] в формулы E.2) и E.3), получим М[Х2 -3X + 2]=J+2 = 2,6, 5 D[2X + 3]=4- J =2,4. Ответ. /i=l, M[X] = 0, выражение для F(x) приведено в E.1), М[Х2 - ЗХ + 2] = 2,6 , D[2X + 3] = 2,4 . Задача 5.7. Найти квантиль уровня р = 2/3 для двух случайных велич™: Таблица 5.6 а) случайная величина X имеет ряд распределения, ука- указанный в табл. 5.6); б) случайная величина Y имеет плотность вероятности г 2х, же [0,1], ПХ)-\0, я g [0,1]. X р 0 0,25 1 0,25 2 0,25 3 0,25
68 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II Решение, а) По определению должно выполняться неравенство 2/3 ^ F(x2/3) и х2/з должно быть минимальным среди всех чисел, удовлетворяю- удовлетворяющих этому условию. Непосредственные вычисления дают следующий результат: F@) = Р{Х ^ 0} = Р{Х = 0} = 1/4 < 2/3, F(l) = Р{Х ^ 1} = Р{Х = 0} + Р{Х = 1} = 1/2 < 2/3, F{2) = Р{Х ^ 2} = Р{Х = 0} + Р{Х = 1} + Р{Х = 2} = 3/4 > 2/3. Таким образом, х2/з = 2. б") В данном случае на отрезке [0,1] функция распределения СВ X имеет вид F(x) =lf(t)dt=htdt = x2, xe [o,i], о о и поэтому является непрерывной и строго монотонной на отрезке [0,1] . В соответствии со свойством квантили находим х2/з из уравнения F(x2/3) = 2/3, откуда ж2/з = -\/2/3. Ответ, а) ж2/з = 2\ б) ж2/з = -\/2/3. § 6. Основные дискретные распределения 6.1. Биномиальное распределение. Определение 6.1. Дискретная СВ X с реализациями ж^ = = k, /с = 0, п, имеет биномиальное распределение с параметрами п и р G @,1), что символически записывается как X ~ Bi(n;p), если вероятность события {X = х^} определяется формулой Бернулли: рк = Р{Х = хк} = Рп(к) = CknPkqn~\ q = l-p. Ряд распределения представлен в табл. 6.1. Пусть опыт G повторяется п раз в одних и тех же условиях, при этом событие А появляется при каждом повторении опыта с одной и той же вероятностью р = Р(-А). Тогда по теореме 3.5 вероятность появления события А ровно к раз при п повторениях опыта определяется формулой Бернулли: Рп(к) = C^pkqn~k , т.е.
6] ОСНОВНЫЕ ДИСКРЕТНЫЕ РАСПРЕДЕЛЕНИЯ случайная величина X, являющаяся числом появления события А при п повторениях опыта, имеет биномиальное распределение. Таблица 6.1 X р 0 qn 1 прдп~г к Cknpkqn~k п-1 nqp71'1 п Замечание 6.1. Правая часть формулы Бернулли совпадает с выражением для (к + 1) -го слагаемого в разложении бинома Ньютона (р + q)n , и поэтому такое распределение называется биноминальным. Свойства биномиального распределения Bi(n;p) 1) Характеристическая функция СВ X ~ Bi(n;p) равна 9(t) = = Е Ckn{pelt)kqn-k = ||бином НьютонаЦ = к=0 к=0 2) Из свойства 3) g(t) получаем значение математического ожида- ожидания и дисперсии: t=0 t=o = (q t=o = np(q + p)n x = np, x e 2it/ np d ~T~dt t=o Учитывая свойство 7) mx •> получаем = np2(n - 1) = n p -\- npq. t=0 dx — № — ^2 — mx = n p + npq — n p = npq. 3) Наиболее вероятное значение к* СВ X ~ Bi(n;p) удовлетворя- удовлетворяет неравенству (п + 1)р - 1 ^ к* ^ {п + 1)р. Пример 6.1. Монету подбрасывают три раза. Требуется найти ряд распределения числа X выпавших «гербов». СВ X распределена
70 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II по биномиальному закону с параметрами п = 3, р = 1/2. Поэтому СВ X может принимать значения 0, 1, 2, 3 с вероятностями Ро = ' соответственно. Таким образом, получаем ряд распределения, пред- представленный в табл. 6.2. Таблица 6.2 X р 0 1/8 1 3/8 2 3/8 3 1/8 Пример 6.2. Предположим, требуется оценить экономическую целесообразность ежедневного открытия магазина в 8 часов утра в течение 5 рабочих дней. Пусть вероятность появления покупателей в это время суток известна и равна р. Тогда вероятность прихода покупателей в это время к раз за неделю выражается формулой Бернулли. При этом, если, например, для к = 4 эта вероятность -РбD) окажется близкой к единице, то следует ожидать экономический эффект от открытия магазина в 8 часов утра. 6.2. Распределение Бернулли. Определение 6.2. Биномиальное распределение Bi(l;p) с параметрами п = 1 и р G @,1) называется распределением Бернулли. Для распределения Bi(l;p) имеем g(t) = q-\-pelt, тх =Р, dx = Замечание 6.2. Распределение Бернулли Bi(l;p) играет фун- фундаментальную роль в теории вероятностей и математической стати- статистике, являясь математической моделью опыта с двумя исходами. Если Хт , т = 1,п, — независимые СВ (см. определение 11.5) с А П распределением Bi(l;p), тогда СВ X = ^ Хш имеет распределение Bi(n;p). Пример 6.3. Пусть имеется партия некоторой продукции, в которой некачественная продукция встречается с вероятностью 1 — — р, а продукция без дефектов — с вероятностью р. Положим xq = = 1, если попалась продукция без дефектов, и х\ = 0 , если продукция с дефектом. Тогда «качество» продукции можно описать случайной величиной, имеющей распределение Бернулли Bi(l;p).
6] ОСНОВНЫЕ ДИСКРЕТНЫЕ РАСПРЕДЕЛЕНИЯ 71 6.3. Распределение Пуассона. Определение 6.3. Дискретная СВ X с реализациями х\~ = к, к = 0,1,... , имеет распределение Пуассона с параметром а > 0, что символически записывается как X ~ П(а), если Ряд распределения представлен в табл. 6.3. Таблица 6.3 X р 0 е~а 1 ае~а к О_ а к\ Свойства распределения Пуассона П(а) 1) Найдем характеристическую функцию СВ X ~ П(а): ik=0 ik=0 к=0 k\ 2) По свойству 3)^f(t) получаем математическое ожидание и дисперсию: 1 d г dt t=o =0 г I г dt L t=0 3) Наиболее вероятное значение /с* СВ X ~ П(а) удовлетворяет неравенству a - 1 ^ fc* ^ а. Для распределения Пуассона выполняется числовое равенство гпх = dx = й- На практике СВ имеет, как правило, физическую размерность. В этом случае физические размерности МО и дисперсии не совпадают, хотя их числовые значения для распределения Пуассона равны. Замечание 6.3. Распределение Пуассона широко используется в теории массового обслуживания. Приведем пример типичной ситу- ситуации, когда возникает такое распределение.
72 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II Пример 6.4. Пусть на телефонную станцию в произвольные мо- моменты времени случайным образом поступают заявки на переговоры с городом ЛГ так, что выполняются три условия: а) вероятность появления любого количества заявок за какой- либо отрезок времени не зависит от того, сколько их поступило за любой другой, не пересекающийся с ним отрезок, т. е. заявки распределяются на оси времени t независимо друг от друга. Это условие независимости; б) вероятность появления за достаточно малый интервал времени At двух и более заявок пренебрежимо мала по сравнению с вероятно- вероятностью поступления в течение этого интервала времени одной заявки. Это условие ординарности; в) вероятность появления фиксированного числа заявок в интерва- интервале времени г зависит лишь от длины этого интервала, но не зависит от его расположения на оси t. Это условие стационарности. В данном случае можно показать, что СВ X, равная числу заявок, поступивших на телефонную станцию за единицу времени, имеет распределение П(а), где а — среднее число заявок, поступающих в единицу времени. Пример 6.5. Пусть машина проехала некоторое расстояние и X — число проколов шины на этом расстоянии, которые по ходу движения устраняются. Тогда вероятность к проколов шины может быть найдена по формуле Пуассона (с соответствующим параметром а). Между биномиальным распределением Bi(n;p) и распределением Пуассона П(а) имеется следующая связь. Теорема 6.1. (Теорема Пуассона). Пусть п —>• оо , р —>• 0 и при этом пр = а = const. Тогда Рп(к) -»¦ у е~\ где Рп(к) = Ckpkqn~k, к = 0^. Доказательство. Докажем это утверждение, пользуясь вто- вторым замечательным пределом A — а/п)п —>• е~а при п —>• оо . Так как здесь р = а/п, q = 1 — а/п, то т и п\ г n(n-l)...(n- к + 1) (а\к Л a\n~k lim Pn(k) = lim -ь }-—\ >- - 1 - - = _a^ n{n - 1)... (n - к + 1) A - a/n)n _ ak /c! n—)-oo ТТЛ A — a/n)fc /c! Таким образом, при больших п и малых р (при редких яв- явлениях) двухпараметрическое биномиальное распределение Bi(n;p) можно приближенно заменить однопараметрическим распределением
§ 6] ОСНОВНЫЕ ДИСКРЕТНЫЕ РАСПРЕДЕЛЕНИЯ 73 Пуассона П(а), где а = пр. При этом ошибка от такой замены не превышает пр2 для всех к = О, п, т. е. Cknpkqn~k ~ /с! пр X р 0 0,9 1 0,1 Если условия теоремы Пуассона не выполняются, т. е. р достаточно велико, то применяется другая оценка Рп(к) (см. теорему 14.2). 6.4. Типовые задачи. Задача 6.1. Случайная величина X~Bi(l;0,l). Как распреде- распределена СВ Хп , где п — целое число? Решение. Для СВ X по определению имеем ряд распределения, который представлен табл. 6.4. Поскольку X принимает только два возможных значения 0 и 1, то множество возможных значений СВ Хп также состоит из 0 и 1. Поэтому для построения ряда распределения остается вы- вычислить соответствующие вероятности. Оче- Очевидно, что {Хп = 0} = {X = 0} и, следовательно, искомые веро- вероятности равны Р{Хп = 0} = Р{Х = 0} = 0,9, V{Xn = 1} = 1 - V{Xn = 0} = 0,1. Таким образом, Хп - Bi(l; 0,1). Ответ. Хп ~Bi(l;0,l). Задача 6.2. Пусть X и Y — число «успехов» и «неуспехов» в 100 опытах, проводимых по схеме Бернулли. Вероятность «успеха» в одном опыте равна 1/2. Сравнить М.[Х] и М[У] , D[X] и D[Y] . Решение. Для определенности будем считать, что под «успе- «успехом» в одном опыте понимается появление некоторого случайного события А, а, соответственно, «неуспех» состоит в том, что проис- происходит событие А. Тогда для СВ X по определению получаем X ~ - BiA00; 1/2), где п = 100, р = Р(А) = 1/2. Для того чтобы получить закон распределения СВ Y поступим следующим образом: назовем теперь «успехом» в опыте появление события А, а «неуспехом» — событие А. В этом случае Y — число «успехов» в п = 100 опытах, а вероятность «успеха» теперь q = Р(А) = 1 - Р(А) = 1-р= 1/2. Таким образом, Y - BiA00; 1/2).
74 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II После этого решение задачи получается просто: М[Х] = М[У], Т>[Х] = Б[У]. Ответ. М[Х]=М[У], D[X]=D[y]. Задача 6.3. СВ X ~ П(а), а = 2. Найти: а) Р{Х < М[Х]}; б") наиболее вероятное значение /с* СВ X и Р{Х = /с*}; в) Р{Х > >0}; г) М[Х2]. Решение, а) По формуле связи математического ожидания с параметром а закона распределения П(а) имеем М[Х] = а. Тогда Р{Х < М[Х}} = Р{Х < 2} = Г({Х = 0} + {X = 1}) = = Р{Х = 0) + Р{Х = 1} = ^ е~а + ^ е-а = (а + 1)е~а = Зе~2. б) Согласно свойству 3 распределения Пуассона, наиболее вероят- вероятное значение к* для СВ X ~ П(а) леж:ит в интервале а — 1 ^ /с* ^ а. Следовательно, в нашем случае 1 ^ к* ^ 2. Таким образом, наиболее вероятных значений два: к\ = 1 и ^^ = 2. Найдем соответствующие им вероятности: Р{Х = к{) = Р{Х = 1} = ? е"а = 2е, Р{Х = ^} = Р{Х = 2} = ^ е"а = 2е. в) Случайная величина X ~ П(а) принимает значения 0,1, 2 ... Следовательно, Р{Х > 0} = 1 - Р{Х = 0} = 1 - ^ . г) Воспользуемся формулой связи второго начального момента, который нужно найти, с М[Х] и М[Х2} = ЩХ] + (М[Х]J = а + а2 = 2 + 22 = 6. Ответ, а) Р{Х < М[Х]} = Зе~2 ; б") наиболее вероятные значе- значения: 1 и 2, Р{Х = 1} = Р{Х = 2} = 2е~2 ; в) Р{Х > 0} = 1 - \ ; г) М[Х2] = 6. Задача 6.4. Страховая компания заключает однотипные дого- договоры, причем страховая премия (сумма, выплачиваемая страхуемым
§ 6] ОСНОВНЫЕ ДИСКРЕТНЫЕ РАСПРЕДЕЛЕНИЯ 75 при заключении договора) составляет 4 тыс. рублей. При наступлении страхового случая компания должна выплатить 20 тыс. рублей. Из- Известно, что страховой случай наступает в 4% случаев. Фирме удалось застраховать 200 клиентов. Ответить на вопросы: а) Каков средний доход фирмы и среднеквадратическое отклоне- отклонение дохода фирмы? б) Какова вероятность того, что доход фирмы будет находиться в пределах от 710 до 750 тыс. рублей? Решение. Обозначим через X случайную величину, равную ко- количеству клиентов, которым страховая компания будет делать вы- выплаты по страховому случаю. Так как страховой случай наступает в 4% случаев, то вероятность того, что он наступит при работе с одним конкретным клиентом составляет 0,04. Поэтому случайная величи- величина X имеет биномиальный закон распределения с параметрами п = = 200 и р = 0,04, т.е. X ~ BiB00; 0,04). Обозначим через Y слу- случайную величину, равную доходу фирмы. Согласно условию задачи СВ Y связана с X следующим образом: Y = 200 -4000 -20 000 X. а) Воспользуемся свойствами математического ожидания и дис- дисперсии для нахождения М[У] и D[V] : M[Y] = М[800 000 - 20 000 X] = 800 000 - 20 000 М[Х], Б[У] =D[200 000-20 000X] =4- 108D[X]. Известно, что для биномиального закона распределения М[Х] = пр = 200 • 0,04 = 8, В[Х] = прA -р) = 200 • 0,04 • 0,96 = 7,68. Получаем М[У] = 800 000 - 20 000 • 8 = 640 000, Б[У] = 4 • 108 • 7,68 = 3072 • 106. Таким образом, среднеквадратическое отклонение дохода фирмы равно V3072 • 106 « 55 426 руб. б) Используя известные формулы, получаем Р{710 000 ^ У ^ 750 000} = Р{2,5 ^ X ^ 4,5} = = Р ({X = 3} + {X = 4}) = Р{Х = 3} + Р{Х = 4} = l - 0,04J00-3 + С^00@,04LA - 0,04J00-4 « 0,0825.
76 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II Ответ, а) Средний доход фирмы равен 40 тыс. рублей, а средне- квадратическое отклонение — 55,426 • 103 руб.; б) вероятность при- приблизительно равна 0,0825. Задача 6.5. Вероятность того, что в течение часа на станцию скорой помощи не поступит ни одного вызова, равна 0,00248 . Считая, что число X вызовов, поступивших в течение часа на станцию, имеет распределение Пуассона, найти математическое ожидание и дисперсию X. Решение. По условию СВ X ~ П(а), следовательно Р{Х = 0} = = е~а = 0,00248. Отсюда а = 5,9994. Так как X ~ П(а), то М[Х] = = а = 5,9994 , D[X] = а = 5,9994. Ответ. М[Х] = 5,9994, В[Х] = 5,9994. 7. Основные непрерывные распределения 7.1. Равномерное распределение. Определение 7.1. СВ X распределена равномерно на отрезке [а, Ъ] (X ~ R(a; b)), если (рис. 7.1) f{x) = l Ъ-а { 0, х<?[а,Ь]. Свойства равномерного распределения R(a; Ь) 1) Нетрудно убедиться в том, что функция распределения имеет вид (рис. 7.2) {0, х < а, и а 1, х > Ъ. 2) Характеристическая функция СВ X ~ R(a; 6): + ?° b itb _ ita
§7] ОСНОВНЫЕ НЕПРЕРЫВНЫЕ РАСПРЕДЕЛЕНИЯ 77 3) МО и дисперсия по определению равны +оо Ъ = v\ = xf(x) dx = dx = J v J ) b-a Ъ2-а2 a + b 2F-a) 2 ' i-oo о = x2f(x)dx= - x2 dx = J 6 — a J Ъ3-а3 3F-a) , A 2 dx = M2 = V2 ~ mx = (b-aJ = 12 В данном случае МО молено было бы найти проще, воспользовавшись свойством 9) mx , так как график плотности вероятности равномер- равномерного закона симметричен относительно прямой х = (а + Ъ)/2. 1 Ь-а /(*) а О а О Рис. 7.1 Рис. 7.2 4) Линейное преобразование Y = переводит СВ X ~ b — a R(a; 6) в СВ У ~ R@; 1). Действительно, согласно примеру 5.3 1, У? [0,1], 0, у ?[0,1]. 5) Если СВ У имеет непрерывную строго возрастающую функцию распределения Fy (у), то СВ X = Fy (У) имеет распределение R@; 1). Действительно, в этом случае функция х = Fy(y) имеет обратную функцию у = Fy (x) и эти функции являются взаимно обратными. Поэтому для всех х G [0,1] получаем Fx{x) = P{FY(Y) ^х} = P{Y ^ Fy^x)} = FY{Fyl(x)) = х. Кроме того, Fx(x) = 0, если х < 0, и Fx(x) = 1, если х > 1. Таким образом, СВ У = i^7 (X) будет иметь требуемую функцию
78 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II распределения Fy(y), если X ~ R@; 1). Данный результат, верный и в более общем случае, когда функция распределения лишь непре- непрерывна, используется для моделирования СВ с произвольно заданным законом распределения. Замечание 7.1. Равномерное распределение является непре- непрерывным аналогом дискретного распределения вероятностей для опы- опытов с равновероятными исходами. Пример 7.1. СВ X, являющаяся погрешностью приближен- приближенных вычислений каких-либо параметров при округлении до ближай- ближайших целых чисел, удовлетворительно описывается распределением 7.2. Экспоненциальное распределение. Определение 7.2. СВ X имеет экспоненциальное (показа- (показательное) распределение с параметром Л > 0, т. е. X ~ Е(Л), если (рис. 7.3) ПХ) 0, х^О. Свойства экспоненциального распределения Е(Л) 1) Функция распределения СВ X ~ Е(Л) равна (рис. 7.4) F(x) = = 0, если х < 0, и ± | f(t)dt = если t < О = Л [ e~xt dt=l- е"Лж, х ^ 0. 2) Характеристическая функция СВ X ~ Е(Л): g(t)= | eltxf(x)dx = л Г x(it = л J e dx = _ Л rx(it-X) it- X x=o X — it' 3) Найдем МО и дисперсию СВ X ~ Е(Л): Id X t=o (A - itJ t=o Л' 2Л t=o t=o dx = v2 - у\ = -т^.
§7] ОСНОВНЫЕ НЕПРЕРЫВНЫЕ РАСПРЕДЕЛЕНИЯ 79 Замечание 7.2. Экспоненциальное распределение является од- одним из основных распределений, используемых в теории надежности. /(*) F(x) Рис. 7.3 Рис. 7.4 Пример 7.2. Продолжительность безотказной работы многих технических устройств, а также время задержки вылета самолета по вине технических служб аэропорта удовлетворительно описываются соответствующими экспоненциальными распределениями. 7.3. Нормальное распределение. Определение 7.3. СВ X имеет нормальное [гауссовское) распределение с параметрами т и а2 > 0, т. е. X ~ N(ra; а2), если (х - т2 Рис. 7.5 При этом СВ называется нормальной (гауссовской). График плотности нормального распределения (рис. 7.5), называемый кривой Гаусса, имеет единственный максимум в точке х = т.
80 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II Свойства нормального распределения N(m;cr2) 1) Найдем выражение для функции распределения СВ X 'N(m;cr2): F(x)= j f(t)dt — oo 1 Г f (t-mJ\ ^ = , exp < - ^ -J— > dt = ^2тгсг J [ 2cr2 J II A t-m , 1 ,, = 2/ = 5 dy=-dt 0- Здесь введено обозначение Ф(у) = —^= е г '2 dt для функции V2tt J —A.A нормальной СВ X ~ N@; 1). 0,5 распределения стандартной График функции распределения ^(ж) представлен на рис. 7.6. Вместо Ф(у) в справочниках встречается такж:е функция Лапласа Рис. 7.6 Легко убедиться в том, что Фо(—у) = —Фо(?/) и Ф(у) = 1/2 + Фо(у) • 2) Характеристическая функция СВ X ~ N@; 1) имеет вид g(t) = = е~1 I2 . Действительно, = е + ОО g(i) = -^= \ e~x2/2eitxdx = ||формула ЭйлераЦ = /2тг 1 costxdx -puu + ^^ е~ж /2 sin to da; = — oo —oo sin to, — нечетная e-x /2 _ четная пределы симметр. + OO л/27Г J cos to dx.
§ 7] ОСНОВНЫЕ НЕПРЕРЫВНЫЕ РАСПРЕДЕЛЕНИЯ 81 Применяя метод интегрирования по частям, имеем + ОО д1 (t) = —-== хе J sin tx dx = + ОО [ е"ж2/2 cos tx dx] = -tg(t). J -I Решая это дифференциальное уравнение с разделяющимися перемен- переменными при начальном условии д@) = 1, находим lng(t) = — ?2/2. Рассмотрим СВ X ~ N(ra; а2). Тогда нормированная СВ Х= а имеет нормальное распределение N@; 1) и, следовательно, характе- характеристическую функцию g(i) = е~ь I2 . Далее, согласно свойству 4) g(i) Д * для СВ X = а X -\-т имеем gx(t) = eitrng * (at) = exp(i?ra - t2a2/2). 3) МО и дисперсия СВ X ~ N(m; а2) равны 1 d *=° = m, t=o t=o = ^ [ - cr2exp(i?m - ?2a2/2) + (im - ta2Jexp(itm - iV/2) t=0 = a2 + m2, dx = vi - v\ = a2. В данном случае МО можно было бы найти проще, воспользо- воспользовавшись 9) тх , так как график плотности вероятности нормального закона распределения симметричен относительно прямой х = т. * А 4) С помощью линейного преобразования Х= (X — т)/а нормаль- нормальное распределение N(m; а2) переходит в стандартное нормальное N@; 1) с функцией распределения F* (х) = Ф(х). х 6 Кибзун А.И. и др.
82 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II 5) Нормально распределенная СВ с большой вероятностью прини- принимает значения, близкие к своему МО, что описывается «правилом к сигм»: ( 0,6827, к = 1, Р{|Х-ш| ^ ка} = Ф0(к) - Ф0(-к) = 2Ф0(» = <^ 0,9545, к = 2, { 0,9973, к = 3. Замечание 7.3. Нормальное распределение имеет широкое распространение в прикладных задачах. Это связано с тем, что в реальности многие исследуемые СВ являются следствием различных случайных событий. В частности, при достаточно общих предположе- предположениях сумма большого числа независимых СВ имеет распределение, близкое к нормальному (см. теорему 14.2). Пример 7.3. Рост людей хорошо описывается нормальным рас- распределением (см. задачи 16.2 и 20.4). Это, по-видимому, связано с тем, что на рост влияет суперпозиция разнообразных независимых случайных факторов: климата, экологии, экономических условий, бо- болезней и т. д. Хотя, конечно, «бесконечно» большие люди (великаны) и «бесконечно» маленькие люди (гномы) бывают только в сказках. Это говорит о том, что «хвосты» истинного распределения роста людей отличаются от нормального распределения. 7.4. Распределение Вейбулла. Определение 7.4. СВ X имеет распределение Вейбулла с параметрами а и Л, где а > 0 и Л > 0, если плотность имеет вид (рис. 7.7) ъ\ха~1е~Хх , х > О, ), х < 0. A f(x) Рис. 7.7 Свойства распределения Вейбулла 1) Непосредственные вычисления показывают, что (рис. 7.8 3—Аж° e х < 0.
§7] ОСНОВНЫЕ НЕПРЕРЫВНЫЕ РАСПРЕДЕЛЕНИЯ 83 2) Приведем формулы для МО и дисперсии: где Г(ж) = e~ttx~1dt — гамма-функция, значения которой зада- ются таблично. Рис. 7.8 3) Если а = 1, то распределение Вейбулла превращается в экспоненциальное распределение с показателем Л. Замечание 7.4. СВ, имеющая распределение Вейбулла, встре- встречается в задачах надежности при оценке времени безотказной работы прибора. 7.5. Логарифмически нормальное распределение. Определение 7.5. СВ Y = ех , где X ~ N(m;cr2), имеет логарифмически нормальное (логнормальное) распределение с пара- параметрами т и а > 0. Так как ех — строго возрастающая функция, то учитывая выражение для плотности нормального распределения, находим плотность логнормального распределения: Му) = ф(у) — 1пу Ф'(у) = 1/у О, у < 0.
84 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II График функции /у (у) (рис. 7.9) асимметричен с максимумом в 2 точке у = ет~а . Найдем МО и дисперсию СВ Y. По определению замена перем. .2/2 ос л/2тг J Поэтому _ em+cr2/2 О Рис. 7.9 Аналогично молено найти М[У2] = е2^ = М[У2]- (М[У]J = Замечание 7.5. Логнормальное распределение имеет широкое распространение в экономической статистике, статистической физике и биологии. 7.6. Типовые задачи. Задача 7.1. Случайная величина X ~ R@; а), Р{Х > 1/3} = = 1/3. Найти а и М[Х2}. Решение. Изобразив график плотности вероятности fx(x) •> нетрудно вычислить вероятность Р{Х > 1/3} как соответствующую площадь. Разрешая уравнение 1 ( Х\ - 1 а V 3 / 3 относительно а, получаем, что а = 1/2. Используя теперь формулы математического ожидания и дисперсии для равномерного распреде- распределения R@; 1/2), вычисляем =
§ 7] ОСНОВНЫЕ НЕПРЕРЫВНЫЕ РАСПРЕДЕЛЕНИЯ 85 Наконец, m[x2] = d[x] + (m[x]J= -L + -L = _1. Ответ. а= 1/2, М[Х2} = 1/12. Задача 7.2. Случайная величина X ~ ЕA0). Вычислить Р{Х > 100|Х > 10}. Реш:ение. Воспользуемся определением условной вероятности: Р({Х > 100} {X > 10}) Р{х > ш\х > ю} = I р{х>10} >- ¦ Поскольку {X > 100} С {X > 10} , то {X > 100} • {X > 10} = {X > > 100}. Следовательно, В числителе и знаменателе перейдем к противоположным событиям. Вероятности этих событий найдем, используя функцию распределе- распределения экспоненциального закона, Р{Х > 100} = 1 - Р{Х <: 100} = 1 - FxA00) = e 0100 Р{Х > 10} = 1 - Р{Х <: 10} = 1 - Fx = e 010 Таким образом, -1000 Р{Х > 100|Х > 10} = ^- = е"900 = Р{Х > 90}. Ответ. Р{Х > 100|Х > 10} = Р{Х > 90} = е"900 . Задача 7.3. Случайная величина X ~ NA0; 20). При каких h равенство Р ||Х - М[Х]\ < hy/T>[X]} = Р ||Х - М[Х]\ будет верно? Решение. Пусть А = (\Х -М[Х]\ < hy/T>[X]\ , тогда А={\Х- М[Х]\ ^ h
86 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II и потому имеем - М[Х]\ ^ h^/ЩЩ = 1 - Р {|Х - М[Х]\ Вероятность Р{|-Х" — М[Х]| < /i^/D[X]} согласно свойству 5) N(m; a2), может быть вычислена с помощью функции Лапласа: Р [\Х - М[Х}\ < hy/T>[X]\ = Р {\Х - М[Х]\ < ha} = 2Ф0(/г). Таким образом, исходное уравнение сводится к виду откуда Фо(^) = 1/4. По таблице 1 функции Лапласа (стр. 216) находим h ж 0,675 . Ответ, h « 0,675 . Задача 7.4. Если соблюдается график движения, то среднее время ожидания пассажиром трамвая равно 3,5 минуты. Известно, что время ожидания имеет равномерный закон распределения. Ми- Минимальное время ожидания равно 0. Найти вероятность того, что пассажир будет ожидать трамвай от двух до пяти минут. Решение. Обозначим время ожидания трамвая через X. Со- Согласно условию задачи X ~ R(a; Ъ), где а = 0, а М[Х] = 3,5. Найдем параметры закона распределения, решив следующую систему уравнений: { М[Х] = ^ = 3,5; \ а = 0. Получаем, что второй параметр закона распределения Ъ = 7. Тогда где Получаем Р{2 ^ X ^ 5} = 3/7. Ответ. Р{2 ^ X ^ 5} = 3/7. Задача 7.5. Время ремонта и обслуживания автомобиля после одной поездки случайно и имеет экспоненциальный закон распределе- распределения. Было замечено, что в текущем сезоне на ремонт и обслуживание
§ 8] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 87 автомобиля после одной поездки тратилось в среднем 5 минут. Найти вероятность того, что при очередной поездке это время не превысит 30 минут. Решение. Пусть X — время ремонта и обслуживания автомо- автомобиля после одной поездки. По условию задачи X ~ Е(А) и М[Х] = = 5. По формуле связи М[Х] и А получаем, что М[Х] = — = 5. Л Отсюда находим А = 1/5. Требуется найти Р{Х ^ 30} . Плотность вероятности СВ X имеет вид Следовательно, получаем 30 Р{Х ^ 30} = [ -e~x/5dx = -е~3 J 5 -х/Ъ 30 = 1-е" -6 Ответ. Р{Х ^ 30} = 1-е Задача 7.6. Рост взрослого мужчины удовлетворительно описы- описывается нормальным законом распределения. По статистике средний рост составляет 175 см, а среднеквадратическое отклонение равно 7 см. Найти вероятность того, что рост наугад взятого мужчины будет отличаться от среднего роста не больше чем на 7 см. Решение. Обозначим рост наугад взятого взрослого мужчины через X. По условию задачи X ~ NA75; 49). Требуется найти Р{|Х - М[Х]\ ^ 7}. Так как интервал (М[Х] - 7,М[Х] + 7) сим- симметричен относительно М[Х] , то Р{\Х - М[Х]\ ^ 7} = 2Ф0 ( -j== \ = 2Ф0A) « 2 • 0,3413 = 0,6826. Ответ. Искомая вероятность приблизительно равна 0,6826. § 8. Задачи для самостоятельного решения 1. Функция распределения СВ X непрерывна. Может ли СВ X быть дискретной СВ? 2. СВ X принимает два значения —10 и 10 с вероятностями 1/3 и 2/3 соответственно. Является ли она непрерывной СВ?
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II 3. СВ X принимает только два различных значения а (а > 0) и —а с вероятностью 1/2. Верно ли, что М[Х] > а и D[X] < а2 ? 4. Закон распределения случайной величины X выглядит следу- следующим образом (см. табл. 8.1). Таблица 8.1 Построить ряды распределения и найти математические ожи- ожидания следующих случайных величин: a) Y = 10Х - 1; б) Y = -X2 ; в) Y = 2х . 5. СВ X ~ BiD; 1/3). Найти наиболее и наименее вероятные значения X. 6. СВ X ~ Bi(n;p), Y ~ П(А). Сравнить М[Х] • B[Y] и М[У] х X р -0,5 0,1 0 0,4 0,5 0,1 1 0,3 1,5 0,1 7. СВ X ~ Bi(8; 1/3), У - ПA/3). Вычислить разность между наиболее вероятными значениями СВ X и Y. 8*. Для С В X и У заданы ряды распределений (см. табл. 8.2 и 8.3). Таблица 8.2 Таблица 8.3 X р -1 1/2 0 1/2 Y Р 0 1/2 1 1/2 Найти все ж, для которых справедливо равенство Fx(Fy(x)) = = FY(Fx(x)). 9. СВ X принимает только два различных значения 1 и —1 с вероятностью 1/2. Вычислить Fx(l/2) и Fx(—1/2). 10. СВ X - Bi(l; 0,2). Как распределена СВ Y = 1 - Хп ? 11. СВ X - Bi(l; 1/2). Сравнить (М[Х]J и D[X]. 12. СВ X - BiD; 0,1). Найти Fx(-W). 13. Существуют ли такие законы распределений дискретных случайных величин, для которых: а) дисперсия всегда меньше математического ожидания (для любых параметров закона распределения)? б) Т>[Х] =М[Х]1 14. СВ X - BiC; 0,2). Вычислить Р{Х > 0} . 15. СВ X ~ ПA). Найти наиболее вероятное значение X . 16. СВ X - 11B3), a Y = 1 - X. Вычислить Fy B).
§ 8] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 89 17. СВ X ~ П(М[У]), а СВ Y ~ П(М[Х]). Сравнить D[X] и D[y]. 18. Функции fi(x) и /2(ж) являются плотностями вероятностей. Является ли функция /з(ж) = (fi(x) + 2/2(ж))/3 плотностью вероят- вероятности? 19. СВ X - R(-l; 1). Сравнить Р{Х < М[Х]} и Р{Х > М[Х]} . Найти Р{|Х - М[Х]| < ^D[X]} . 20. СВ X ~ R(-l;0), а У - R@; 1). Сравнить 21. СВ X - ЕA). Сравнить Р{Х < М[Х]} и Р{Х < Т>[Х]}. 22. СВ X ~ Е(М[У]), У - E(D[X]). Найти М[Х], В[Х], М[У] 23. СВ X - N@; 1), a Y - R@; 1). Сравнить Р{0 < X < 1} и Р{0<У < 1}. 24. Пятнадцать раз подбрасывали три игральных кости. Пусть случайная величина X — число подбрасываний, при которых ровно на двух костях появилось по одному очку. Определить закон распре- распределения случайной величины X. 25. После полета самолет проходит технический осмотр и обслу- обслуживание. Число неисправностей, обнаруженных во время техническо- технического осмотра, распределяется по закону Пуассона с параметром а = 1. Если неисправностей не обнаружено, то техническое обслуживание продолжается в среднем два часа. Если обнаружены одна или две неисправности, то на устранение каждой из них тратится еще по полчаса. Если обнаружено больше двух неисправностей, то самолет ставится на профилактический ремонт, где он находится в среднем четыре часа. Найти закон распределения среднего времени Т после- послеполетного обслуживания и ремонта самолета, а также математическое ожидание времени послеполетного обслуживания. Построить график функции распределения. 26. В среднем каждый второй автомобиль ВАЗ способен пройти первые 10 тыс. км без серьезных поломок, требующих гарантийного ремонта. Организация, торгующая автомобилями, заключила договор с автосервисом на гарантийное обслуживание проданных автомоби- автомобилей. Согласно договору, организация выплачивает сервису 10 тыс. рублей по факту каждого обращения. Последующее гарантийное об- обслуживание берет на себя сервис. Прибыль компании от продажи одного автомобиля составляет 15 тыс. рублей без учета отчислений на гарантийный ремонт. Дать ответы на вопросы: а) Какова средняя прибыль компании от продажи десяти автомо- автомобилей?
90 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II б) Какое минимальное количество автомобилей нужно продать организации за месяц, чтобы средняя месячная прибыль (с учетом выплат по гарантии) была бы не ниже 300 тыс. рублей? в) Какова наиболее вероятная окончательная прибыль компании (с учетом выплат по гарантии) от продажи 10 автомобилей? 27. У торгового агента имеется пять адресов потенциальных покупателей, к которым он обращается по списку с предложением приобрести реализуемый фирмой товар. Вероятность согласия потен- потенциальных покупателей оценивается соответственно как 0,5, 0,4, 0,4, 0,3 и 0,25. Покупатели принимают решение о покупке товара неза- независимо друг от друга. Агент обращается к ним в указанном порядке пока кто-нибудь из них не согласится приобрести товар. Составить ряд распределения СВ X — числа покупателей, к которым обратится агент. Найти математическое ожидание и дисперсию этой величины. 28. Заявки, рассылаемые фирмой, удовлетворяются примерно в 30% случаев независимо друг от друга. Фирма разослала 200 заявок. Найти: а) математическое ожидание и дисперсию числа удовлетворенных заявок X; б) Р{Х = [шх]} , где [ • ] — целая часть числа. 29. Случайным образом из колоды карт C6 карт) последовательно выкладывают на стол карты лицевой стороной вверх. На карты первой колоды таким же образом кладут сверху карты второй колоды C6 карт). Найти среднее число совпадений карт верхней и нижней колоды. 30. Вероятность того, что при трех независимых выстрелах стре- стрелок попадет в цель хотя бы один раз, равна 0,992. Найти мате- математическое ожидание и дисперсию числа попаданий при двадцати выстрелах. 31. Лотерея заключается в розыгрыше трех номеров из шести. Порядок выпадения выигрышных номеров неважен. Выигрыш при угадывании одного номера из трех составляет 20 рублей, двух номеров из трех — 100 рублей, всех трех номеров — 500 рублей. Найти средний выигрыш при покупке одного билета лотереи. Построить график функции распределения размера выигрыша. 32. Необходимо исследовать 10 тыс. проб руды. Вероятность промышленного содержания металла в каждой пробе руды равна 0,2. Определить математическое ожидание и среднеквадратическое отклонение числа проб с промышленным содержанием металла. 33. Плотность вероятности случайной величины X имеет следу-
§ 8] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 91 ющий вид: г з/i, х е [-1,0], f(x) = l h, ЖЕ [1,2], [О — в остальных случаях. Найти /г, функцию распределения F(x) СВ X, М[B — Х)(Х — 3)] и D[2-3X]. 34. Станок-автомат изготавливает валики. Контролируется их диаметр X, удовлетворительно описываемый гауссовским законом распределения со средним значением т = 10 мм. Каково среднеква- дратическое отклонение диаметра валика, если с вероятностью 0, 99 он заключен в интервале (9,7, 10,3) ? 35. Время X безотказной работы станка имеет экспоненциальное распределение. Вероятность того, что станок не откажет за 5 часов работы, равна 0,60653. Найти М[Х], D[X], М[Х2}. 36. Случайная величина X имеет гауссовское распределение вероятностей со средним значением 25. Вычислить вероятность попадания этой СВ в интервал C5, 40), если она попадает в интервал B0, 30) с вероятностью 0,2. 37. Найти р -квантиль распределения R(a; Ъ). 38. Если f(x) — плотность вероятности, то будет ли функция f{—x) плотностью вероятности? 39. СВ X ~ R(-l; 0), а Y ~ R@; 1). Сравнить Fx(fY(M[X])) и FY(fx(M[Y])). 40. СВ X - ЕA). Вычислить Р{0 < X < 1} . 41. СВ X - ЕA). Сравнить FX(M[X}) и fx(M[X]), FX(-M[X]) и fx(-M[X]). 42. СВ X - N@; 1). Вычислить М[Х3} . 43. СВ X - NB; 1). Сравнить Р{Х < М[Х]} и Р{Х > Т>[Х]} . 44. СВ X - N(tt; е). Вычислить FX(M[X]). 45. Функция распределения СВ X имеет вид О, х < 0. Найти М[(Х - 4)E - X)], Р{Х <: М[Х]} и D[3 - 2Х] 46. Плотность вероятности СВ X имеет вид о,
92 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ [ГЛ. II Найти константу с, М[Х] , D[X] , Р{0,5<Х<2}. Построить график функции распределения Fx (х) • 47. Заданы две СВ X ~ R@; 1) и У - ЕA). Сравнить вероятности того, что каждая из них не превышает по модулю 2. 48. СВ X имеет плотность вероятности 18 Какова вероятность того, что X попадет в интервал @,12) ? Чему равен второй начальный момент этой СВ? Найти D[5 — ЗХ]. 49. Известно, что среднее время ожидания очередного покупате- покупателя, подошедшего к кассе, равно 0,2 минуты. Время ожидания касси- кассиром очередного покупателя можно считать СВ, имеющей показатель- показательный закон распределения. Кассиру нужно сменить ленту кассового аппарата. На это ему требуется две минуты. Какова вероятность того, что за это время не образуется очередь? 50. Автомат изготавливает шарики для подшипников. Шарик считается принятым, если отклонение X диаметра шарика от задан- заданного размера по абсолютной величине меньше 0,7 мм. СВ X можно считать нормально распределенной с нулевым средним и среднеква- дратическим отклонением а = 0,4. Сколько в среднем будет годных шариков из 50 изготовленных? 51. СВ X r^j R(—1; 8). Найти точку, в которой функция распре- распределения равна 1/3. 52. СВ X имеет функцию распределения 1 - 1/х, х > 1, 0, х<1. Найти а, для которого Р{Х > а} = 1/3. 53. Найти р-квантиль экспоненциального закона распределения с параметром Л. 54. Функция распределения непрерывной СВ X определяется формулой F(x) = с + Ъ arctg - . Найти: а) постоянные а , Ъ и с; б) плотность вероятности СВ X.
ГЛАВА III СЛУЧАЙНЫЕ ВЕКТОРЫ 9. Двумерные случайные величины 9.1. Функция распределения. Определение 9.1. Двумерным случайным вектором (или дву- двумерной СВ) Z = col(X, Y) называется вектор, компонентами кото- которого являются СВ X = X(uj) и Y = Y(cj) , определенные на одном и том же пространстве Q элементарных событий и:. Пример 9.1. Скорость ветра в текущий момент времени в конкретной точке на поверхности Земли можно представить в виде двумерной СВ. Определение 9.2. Функция F(x, у) = Р({ш : Х(ш) ^x}{w: Y(w) < у}) = Р{Х ^x,Y^ у}, определенная для всех (ж, у) G М2 , называется функцией распределе- распределения двумерной СВ Z = col(X, Y). Пример 9.2. Пусть опыт G состоит в одновременном подбрасы- подбрасывании двух монет. Элементарным собы- тием будем считать полож:ение упавших монет. Пусть СВ X(uj) — число выпав- выпавших «гербов», а СВ Y(uS) — расстояние меж:ду монетами. В этом случае X(uj) — дискретная СВ со значениями хо = 0, х\ = = 1, Х2 = 2, a Y(lj) — непрерывная СВ с реализациями в М1. Значение функции распределения F(xi^yi) равно вероятности попадания Рис. 9.1 двумерной СВ (X, Y) в квадрант Dn с вершиной в точке (#i,2/i) и сторонами, параллельными осям координат (рис. 9.1).
94 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III Свойства F(x,y) 1) F(x,y) определена для всех (ж,у) G Ж , так как вероятность Р{Х ^ ж, Y ^ у} определена для всех (ж, у) G К2. 2) 0 ^ F(x,y) ^ 1 для всех ж, у G IR . По аксиоме А1 и свойству 5)Р для любого события выполняется 0 ^ ^ Р(-А) ^ 1, поэтому по определению F(x,y)G [0,1]. 3) F(-oo,y) = F(>,-oo) = F(-oo,-oc) = = 0 для всех ж, у G И1 . Действитель- Действительно, рассмотрим следующую последователь- последовательность событий Вп = {со: Х(оо) ^ — п\ , где п = 1,2,... По аналогии с доказательством свойства 3) F(x) устанавливаем, что F(-oo,y) ^ lim Р(Вп) = Р@) = 0. 0 s. У (x (x. .*) D Рис. 9.2 4) Fy(j/) = F(+oo,y), Fx{x) = F{x, +oo) для всех ж,у G И1, где Fx(y) и Fy(x) —функции распределения СВ X и Y соответственно. Это свойство молено установить, следуя доказательству свойства 3) F{x), так как {и : Х(и) ^ +оо} = {со : Y(w) ^ +оо} = п. 5) F(+oo, +оо) = 1. В силу свойств 4) F(x, у) и 3) F[x) имеем F(+oo, +оо) = Fx(+oo) = 1. 6) F(x,y) — монотонно неубывающая по каждому из аргументов. Так для Ах > 0 имеем F(x + Ах, у) = Р{Х ^ х + Ах, У ^ у} = = Р{Х ^ ж, Y ^ у} + Р{ж < X + Ах, Y ^ у} ^ FO,у), Монотонность F(x,y) по у доказывается аналогично. 7) Вероятность попадания СВ Z в прямоугольник ?) = {х\ < х ^ ж2, 2/1 < у ^ У2} равна где F{xi, Уз) 1 hj = 1? 2 , — вероятности попадания СВ Z в квадранты .LV/ с соответствующими вершинами (ж^у^), z,j = 1,2 (рис. 9.2). Представим квадрант ?J2 тремя способами в виде суммы непере- непересекающихся множеств: D22 = D D22=D D12\Dn D12\Dn = D + D21\Dn + D 12, D21\D
9] ДВУМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 95 Тогда по формуле сложения вероятностей имеем P(D22) = Р(?>) + P(?>i2\Dii) P(D22) = Р(?>) + P(?>2i\?>ii) P(D22) = P(?>) + P(Di2\Dii) Из последних двух равенств следует, что P(D12\Dn) = P(D12) -P(Dn). Подставляя это выражение в первое равенство, получаем P(D) = P(D22) + Р(ВД - Р(ВД - P(D21). Ho P(Dij) = F(xi,yj), г = 1,2, j = 1,2. Подставляя данные значения функции распределения F(x,y) в формулу для P(D), приходим к требуемому утверждению. Если функция распределения F(x,y) непрерывна, то доказанная формула верна и для замкнутого прямоугольника D = {х± ^ х ^ ^ ^2, У\ ^ У ^ Ы- Определение 9.3. Двумерная СВ Z = col(X,Y) называется дискретной, если СВ X и Y дискретны. Простейшим способом задания закона распределения дискретной двумерной СВ Z является таблица распределения (см. табл. 9.1). Таблица 9.1 Здесь Pij = Р({Х = xt}{Y = _ ?/л\ _ ту$х — т- Y — п-\ i — = 0, п, j = 0, m, с условием нор- п га мировки: ^2 ^2 Pij = 1 • Функция i=0 j=0 распределения имеет вид п га ^Чж> У)=А^А^ Pij i=0 j=0 где /(•) — единичные ступенчатые функции (см. определение 5.6). Определение 9.4. СВ X и Y называются независимыми, X\Y Хо Xx Xn Уо Poo Рю PnO У1 Poi Pll Pnl Ут РОт Plm Pnm если F(x,y) = Fx{x)FY{y) для всех х ЕЁ1,!/ G Ж1. Пусть Z = col(X, Y) — дискретная СВ, т. е. X и Y — одномерные дискретные СВ с реализациями Жо,... , жп и у0,... ,уш . Можно показать, что СВ X и Y независимы тогда и только тогда, когда для всех г = 0, щ j = 0, т Р{Х = Xi,Y = Vj} = P{X =
96 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III 9.2. Плотность распределения. Определение 9.5. Неотрицательная кусочно непрерывная функция /(ж, у) называется плотностью распределения (плотно- (плотностью вероятности) двумерной СВ Z = col(X, Y), если х у F(x,y)= | | f(t,r)dtdr, — оо —оо где использована символическая запись для двойного интеграла по области D = {? ^ ж,т ^ у}. При этом двумерная СВ Z называется непрерывной. Из математического анализа известен факт, что в точках непре- непрерывности функции /(ж, у) она равна второй смешанной производной функции F{x,y), т. е.: f(x у) /1Ж'^~ дхду ' Свойства /(ж, у) 1) /(ж, у) ^ 0 для всех х,у ? М1 . Это вытекает из определения 9.5. 2) Р(?>) = J ( J /(ж, у) dy) dec, где D = {Xl < ее < ж2, yi < 2/ ^ 2/г} • xi yi По свойству 7) .Р(ж, г/) и определению 9.5 имеем ) 2,2/2) - F(x2,yi) - F(x1,y2) Х-2 У1 Х-2 У\ Xi У2 I I I TlTil] ПИ I П ПГ I Т (НГ 11\ ПИ I П1* I I Т (НГ 11\ ПИ I П1* —I— — V ^ ' ) \ ^ ' ) V ^ ^ / — оо —оо —оо —оо —оо —оо 1/1 Ж2 2 2/ f(x,y)dyjdx= ^Ц f(x,y)dyjdx. -00 -00 xi 2/1 3) P(-D) = f(x,y)dxdy, где D — произвольная квадрируемая область на плоскости IR . Доказательство проведем для непрерывной /(ж, у). Рассмотрим бесконечно малый прямоугольник AD = {х ^ ^ X ^ ж + Аж, у ^ У ^ 2/ + Д^} • Согласно свойству 2) /(ж, у) можно записать х+Ах у+Ау по теореме о среднем значении 1 f(x,y)AyAx.
§ 9] ДВУМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 97 Таким образом, элемент вероятности /'{х, у) dx dy с точностью до бесконечно малых первого порядка равен вероятности попадания дву- двумерной СВ Z = col(X, Y) в бесконечно малый прямоугольник, приле- прилегающий к точке (ж, у), со сторонами, параллельными осям координат. Так как квадрируемую область D С К2 молено представить с любой степенью точности в виде объединения конечного числа непересека- непересекающихся бесконечно малых прямоугольников AD, то из аксиомы A3 следует формула для вероятности попадания СВ (X, Y) в D . + ОО +ОО 4) f(x,y)dxdy = l, поскольку по свойству 5) F{x, у) — оо —оо + ОО +ОО f (ж, у) dx dy = F(+oo, +00) = 1. — 00 —00 x +00 у +oo 5) Fx(x)= I ( I f(t,y)dy)dt, FY(y)= I ( I f{x,T)dx}dr, — OO —OO —OO —OO где Fx(x), Fy(y) — функции распределения СВ X и Y. Например, по свойству 4) F{x, у) X +ОО Fx{x)=F{x,+oo)= \ ( \ f(t,y)dy)dt. — ОО —ОО Для Fy{y) утверждение доказывается аналогично. 6) fx(x) = f(x,y)dy, fy(y) = f(x,y)dx. Это вытекает из — оо —оо свойства 5) /(ж, у) и определения 5.8. Свойство 6) /(ж, у) позволяет по плотности вероятности двумерной СВ Z найти плотности вероятно- вероятности СВ X и Y. 7) Пусть СВ V = (p(X,Y), где X, Y — непрерывные СВ с совместной плотностью /(ж, г/), a ip(x,y) — заданная скалярная + ОО функция аргументов ж, у G М1 , такая, что \ip(x,y)\f(x,y)dxdy< —00 < 00. Тогда можно показать, что + ОО M[V]= Причем, если ц>(х,у) = ^ </?&(:?,?/), то, пользуясь линейными к=1 7 Кибзун А.И. и др.
98 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III т свойствами интеграла, можно показать, что М[У] = ^ M[Vfc], где к=1 8) Для независимости непрерывных СВ X и Y достаточно, чтобы выполнялось равенство f(x,y)=fx(x)fY(y) во всех точках непрерывности этих функций. Действительно, по определению плотности х у в силу незави- независимости X и Y — оо — оо = Fx(x)FY(y) = = | fx(t)dt | fY(r)dT= | | fx(t)fY(r)dtdT. — oo —оо Откуда и следует данное свойство. 9) Если непрерывные СВ X и Y независимы, то справедлива формула свертки плотностей, т. е. плотность распределения СВ V = X + Y имеет вид + ОО fv(v) = fx(x)fy(v-x)dx, — оо где fx{x), fy(y) — плотность распределения СВ X и Y. Действи- Действительно, пусть D = {ж, у: х -\- у ^ v} . Тогда по свойствам 2) /(ж, у) и 8) /(ж,у) получаем л Р р Y ^ у} = f{x,y)dxdy = D + oo ПС* / f* ^\ /4 fx(x)fY(y)dxdy = j /х(я)^ J fy(y)dyjdx=\\y = t-x\\ = —oo —oo V +OO fY(t-x)dt)dx= | ( | fx(x)fY(t-x)dx}dt. D —oo —oo + OO V V +OO ( ( — oo —oo Отсюда, согласно определению 5.8, вытекает формула свертки. Молено показать также, что верно равенство + ОО р fv(v)= fx(v -y)fy(y)dy.
9] ДВУМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 99 Пример 9.3. Пусть имеются равномерно распределенные СВ X rsj R,(a; b) и Y ~ R(a; b), которые независимы. Пользуясь формулой свертки, найдем плотность вероятности СВ Z = X + Y. Учтем, что в данном случае подынтегральное выражение отлично от нуля лишь когда 2а^г;^26,а именно « j kf(x) fx(x) = , если а ^ х ^ 6, о — а fy(y — х) = , если а ^ v — х ^ Ь. Рассматривая два случая взаимно- взаимного расположения отрезков, на которых плотности одновременно отличны от ну- нуля, получаем (Ъ-аУ dx = 7, если 2а ^ v ^ а + Ь, b v-b Таким образом, получаем выражение для плотности треугольного распределения (распределения Симпсона) (рис. 9.3): fv(v) = v - 2а 26 -v I (b -aJ' г; < 2а, г; > 26, 2а ^ v ^ а + 6, а + b ^ v ^ 2Ь. 9.3. Типовые задачи. Задача 9.1. Пусть f(x,y) — плотность вероятности неко- некоторого случайного вектора Z = col(X, Y). Может ли функция + ОО + ОО fi(u,v) = f(u,v)du f(u,v)dv быть плотностью вероятности — оо — оо какой-либо двумерной случайной величины Т = col (С/, V) ? Решение. Непосредственно проверяется, что условия неотрица- неотрицательности и нормировки для функции f\(u, v) выполнены, т. е. функ- функция fi(u,v) является плотностью. Укажем двумерную случайную 7*
100 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III величину Т, для которой fi(u,v) является плотностью. Согласно свойству 6) /(ж, у) имеем fx(x)= j f(x,y)dy, fy(y)= j f(x,y)dx Поэтому fi(x,y) = fx{x) • fy(y). Рассмотрим двумерный случайный вектор Т = col(?/, V) с независимыми компонентами U и V , где СВ С/ и У имеют следующие плотности: fu(u) = fx(u), fv{v) = fy(v). Тогда fT(u,v) = fu(u) • fv(v) во всех точках непрерывности этих функций. Поэтому /т(и,у) = = fi(u,v). Следовательно, fi(u,v) является плотностью распределе- распределения построенной СВ Т. Ответ. Функция fi(u,v) является плотностью вероятности дву- двумерной СВ Т. Задача 9.2. Предприятие имеет две поточные линии по сборке гр * q г, некоторой продукции. Технологические процессы на линиях связаны между собой. Рассмотрим случайные величины: X — количество единиц продукции, собранной за день на первой линии, a Y — на второй линии. Совместное распределение этих ве- величин задано табл. 9.2. Найти: а) частные распределения случайных величин X и Y; б) распределение, математическое ожидание и дисперсию случай- случайной величины Z = X + Y — суммарного количества единиц продук- продукции, выпускаемой предприятием за день. Решение, а) Согласно правилам построения частных распреде- распределений компонент случайного вектора, получим Y\X 0 1 2 0 1/8 1/4 1/8 1 0 1/8 3/8 г = 1,2. (9.1) Таблица 9.3 Таблица 9.4 X р 0 1/2 1 1/2 Y Р 0 1/8 1 3/8 2 1/2 Таким образом, получаем ряд распределения СВ X , представлен- представленный в табл. 9.3. Аналогичным образом строим ряд распределения для случайной величины Y (см. табл. 9.4).
9] ДВУМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 101 б) Случайная величина Z может принимать целые значения от 0 до 3. Определим вероятности, с которыми Z принимает эти значения: Так как события {X = 1,У = 0} и {X = 0,У = 1} несовместны, то согласно формуле сложения вероятностей имеем Аналогично, для других возможных значений Z = 1,Г=1}} = = Р{Х = О, Y = 1) + Р{Х = 1, Y = 1} = 1 тг ~ -» О = 1 + 1 = 1, Таким образом, ряд распределения случайной величины Z может быть представлен табл. 9.5. Найдем математическое ожида- ожидание и дисперсию СВ Z : г=1 Таблица 9.5 Z р 0 1/8 1 1/4 2 1/4 3 3/8 Ответ, а) Ряд распределения СВ X имеет вид табл. 9.3, а ряд распределения СВ Y имеет вид табл. 9.4; б) ряд распределения СВ Z имеет вид табл. 9.5, M[Z] = — , D[Z] = — . 8 64 Задача 9.3. Пусть двухмесячные объемы продаж: продукции некоторого предприятия удовлетворительно описываются двумерным случайным вектором Z = col(X, Y) с плотностью распределения вероятности -{ ?- 100 ^ ж ^ 150, 50 ^ у ^ 100, в остальных случаях.
102 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III Найти: а) константу с; б) функцию распределения F{x,y)\ в) исследовать случайные величины X и Y на независимость. Решение, а) Для нахождения константы с воспользуемся усло- условием нормировки — оо — оо Вычисляя интеграл, получим +оо +оо 100 150 100 [ ( [ f(x,y) dx)dy = 1A cdx) dy = f 50cdy = 2500c. -oo -oo 50 100 50 1 Следовательно, с = - 2500 б) По определению F(x,y)= j ( | f(t,T)dt)dr. — оо —оо В нашем случае при х ^ 100 или у ^ 50 имеем f(x,y) = 0, а следовательно, и F(x, у) = 0. Если х G [100,150] и у G [50,100], то, подставив найденную плотность вероятности в выражение для F{x,y), получим УХ V 50 100 50 Если х G [50,150], а у ^ 100, то х у F(x,y)= J Qf(t,r)dr)dt = 100 50 ж 100 х у = \{\ 2k~0dT)dt+ l(\ 100 50 100 100 Если х ^ 150, а у G [50,100], имеем х у F(x,y)= J Qf(t,T)dr)dt = 100 50 150 у х у 100 50 150 50
§ 9] ДВУМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 103 При х ^ 150, у ^ 100 150 100 х у ( )Н1) 100 50 150 100 Таким образом, ( 0, х ^ 100 или у ^ 50, (х - 100)(у - 50)/2500, 100 ^ х ^ 150, 50 ^ у ^ 100, (ж - 100)/50, 100 ^ х ^ 150, г/ ^ 100, (у - 50)/50, 50 ^ у ^ 100, ж ^ 150, 1, 150 ^ ж, 100 ^ г/. (9.2) в) Чтобы исследовать компоненты случайного вектора Z на независимость, найдем их частные распределения: Г0, х ^ 100, Fx(x) = F(x, +оо) = \ (х - 100)/50, 100 ^ х ^ 150, [ 1, х ^ 150, Г0, у <: 50, FY(y) = F(+oc,у) = { (у- 50)/50, 50 ^ у <: 100, I 1, У ^ ЮО. Очевидно, что F(x,y) = Fx{x) • Fy(y) для всех x,t/G M1 . Следова- Следовательно, СВ X и У независимы. Ответ, а) с = ; б) см. формулу (9.2); в) СВ X и У независимы. Задача 9.4. Случайные величины X и У независимы. Случай- Случайная величина X распределена по нормальному закону с параметрами гпх = 0, ах = 1/2 . Случайная величина У равномерно распределена на отрезке [0,1] . Требуется найти: а) плотность вероятности случайного вектора Z = col(X, У); б) функцию распределения случайного вектора Z; в) вероятность попадания СВ Z в область D = { — 1 ^ X ^ <: 1, |У| ^0,5}. Решение, а) Плотности вероятностей СВ X и У выглядят следующим образом: Так как СВ X и У независимы, то плотность вероятности случайного вектора Z представляется в виде fz(x,y) = /х(ж)/у(у). В данном
104 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III случае fz(x,y) = 0, [0,1]. (9.3) б) Найдем функцию распределения. Двумерная функция распре- распределения независимых случайных величин, по определению, имеет вид: Fz(x,y) = Fx(x)Fy(y). Выпишем одномерные функции распределе- распределения СВ X и Y Fx(x) = \ —е~г dt, FY(y) = { У, 0 < у < 1, J v ^ 1 у > 1 Тогда ГО, (9.4) Пользуясь представлением гауссовской функции распределения через функцию Лапласа, молено записать выражение (9.4) следующим образом: Г о, Fz{x,y) = у^ и, ^), 0<2/<1, (9.5) в) Область D = { — 1 ^ х ^ 1, |г/| ^0,5} представляет собой пря- прямоугольник. Вероятность попадания в него вычисляется следующим образом: 1 0,5 1 P{ZeL>}= |(| fz(x,y)dy)dx= | -1 -0,5 -1 0,5 dy = = i • 2Ф0 (V2 • l) = Фо 0,42.
§ 10] УСЛОВНЫЕ РАСПРЕДЕЛЕНИЯ 105 Вероятность попадания СВ Z в прямоугольник может быть найдена и другим способом: Р{-1 ^ X ^ 1, -0,5 ^ Y ^ 0,5} = V{X ^ 1, Y ^ 0,5} - -V{X ^ -1,У ^ 0,5}-Р{Х ^ 1,У ^ -0,5} + Р{Х ^ -1,У ^ -0,5} = = Fz(l, 0,5) - Fz(-1, 0,5) - Fz(l, -0,5) + Fz(-1, -0,5) = = | (фоA • у/2) + 0,5) - i (o,5 - ФоA • >/2)) = Фо (v^) « 0,42. Ответ, а) Плотность распределения СВ Z имеет вид форму- формулы (9.3); б) функция распределения СВ Z имеет вид выраже- выражения (9.5); в) P{Z eD}^ 0,42 . § 10. Условные распределения 10.1. Условная функция распределения. Рассмотрим сле- следующую задачу: найти закон распределения двумерной СВ Z = = col(X, Y), зная законы распределения двух одномерных СВ X и Y. Оказывается, что в общем случае эту задачу решить нельзя, так как необходимо знать связь между СВ I и У, которая характе- характеризуется условным распределением. Заметим, что свойства 6) /(ж, у) и 4) F(x, у) позволяют решить обратную задачу: найти законы рас- распределения одномерных СВ X и Y, зная закон распределения дву- двумерной СВ Z = col(X, Y). Определение 10.1. Пусть СВ Y является дискретной с реа- реализациями yj , j = 0, т. Условной функцией распределения СВ X при условии, что СВ Y = yj , называется условная вероятность (см. определение 2.6), если Р{У = yj} / 0. Рассмотрим двумерную СВ Z = col(X, Y) с плотностью распреде- распределения f(x,y). Определение 10.2. Пусть для всех х G 1R плотности /(ж, у) и fy (у) непрерывны в точке у G М1 и fy {у) ф 0. Условной функцией распределения СВ X при условии, что СВ Y = у, называется предел при Аг/ > 0 следующей условной вероятности: v)- lim
106 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III Аналогично определяется условная функция распределения Fy(y\x) СВ Y при условии, что СВ X = х. Убедимся в корректности определения 10.2. Пусть СВ Z = = col(X, Y) непрерывна, причем ^У (х.у+ку) плотности /(ж, у), jY (у) непрерыв- непрерывны в точке у для всех х Е К1 и fy(y) Ф 0 • Покажем, что в этом слу- случае предел в определении 10.2 суще- существует и он равен D (х, у Ау) Fx{x\y)= f(t,y)dt. Рассмотрим вероятность Рис. 10.1 попадания СВ Z в полуполосу D (рис. 10.1). По свойству 17)Р получаем P(D) = Р{|у - у\ ^ Ау} • Р{Х ^ х\у - Ay ^ Y ^ у + Ау}. Тогда, из свойств 2) /(ж, у), 3) fx(x) вытекает, что Р{Х ^x\y-Ay^Y^y-' л.л _ Р{Х ^ ж'|У " у| ^ Ау} J ( J f(t,T)dr)dt -оо у-Ау по теореме о среднем значении fy(y) L У-Ау где У и У некоторые точки из интервала (у — Аг/, у + Ау). Учитывая непрерывность f(x,y) и f(y) и переходя к пределу при Ау —> 0, имеем Отсюда следует требуемая формула, которая определяет условную функцию распределения через плотности распределения двумерной СВ и одномерной СВ.
§ 10] УСЛОВНЫЕ РАСПРЕДЕЛЕНИЯ 107 Свойства F(x\y) 1) Fx(x\y) определена для всех х Е К1 . Это следует из определе- определения Fx(x\y). 2) 0 ^ Fx(x\y) ^ 1 Для всех х Е 1R . Это объясняется тем, что условная вероятность принимает значения из отрезка [0,1] , а значит, и ее предел при Ау —> 0 также лежит в данном отрезке. 3) Fx(—oo\y) = 0 по определению 10.2. 4) Fx(-\-oo\y) = 1, так как, например, из определения 10.2 вытекает + ОО \ f(t,y)dt 5) F(x\y) — функция монотонно неубывающая по х Е 1R для любого фиксированного у. Например, в силу определения 10.2 имеем ж+Дж J f(t,y)dt | f(t,y)dt Аналогичные свойства имеет условная функция распределения Fy{y\x) CB Y при условии, что СВ X = х. 10.2. Условная плотность распределения. Определение 10.3. Условной плотностью распределения (ве- (вероятности) непрерывной СВ X при условии, что непрерывная СВ Y с плотностью fy (у) ф 0 приняла значение у, называется функция Аналогично определяется условная плотность вероятности f(y\x) СВ Y при условии, что X = х. Для построения двумерной плотности распределения в общем случае требуется знание не только плотностей распределения од- одномерных СВ, но еще и условных плотностей, например f(x,y) = = fy{y)fx{x\y). Свойства f(x\y) 1) fx(x\y) ^ 0, так как /(ж,у) ^ 0, fY(y) >0. х 2) Fx(x\y) = J fx{t\y)dt, если плотности /(ж,у), /у(у) непре- — оо рывны. В этом можно убедиться, сравнивая выражения для условной плотности и условной функции распределения.
108 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III + ОО 3) [ fx(t\y)dt = 1 по свойствам 2) f(x\y), 4) F{x\y). — оо 4) fx(x\y) = ) 1 если плотности /(ж, г/), fy(y) непрерывны. Действительно, имеем <9ж fY(y) дх \ J / /у(у) — оо 5) Если непрерывные СВ X и Y независимы, то fx(x\y) = fx(x) • Согласно свойству 8)/(ж, у) для независимых СВ X и У имеем равенство f{x,y) = fx{x)fy{y), из которого следует по определению условной плотности, что fx(x\y) = fx(x). 6) Р{Х1 ^ X ^ х2} = — оо xi Действительно, по свойствам 3) f(x), 6) /(ж, у) и определению услов- условной плотности имеем х2 х2 оо Р{Х1 ^Х^х2}= ^ fx(x)dx= |( | Х\ Х\ —ОО Ж2 ОО ОО ( ) 2 = J fY(y)(\ fx(x\y)dx) dy. Последнее свойство аналогично формуле полной вероятности в случае дискретных СВ X и Y (см. теорему 3.3): Р{Х1 <: х <: х2} = J2 р{^ = %}p{^i ^x^x2\Y = Уз}. 3=0 Такие ж:е свойства имеет условная плотность распределения fy(y\x) СВ Y при условии, что X = х. Пример 10.1. Пусть имеется СВ Z = col(X, У), где X —время появления первого покупателя в понедельник, a Y — время появления первого покупателя во вторник. Положим, что /(ж, у) = е~х~у', х,у ^ ^ 0. Требуется найти: 1) i^.y); 2) ib(a;), FY(y); 3) /х(ж), /y(j/); 4) Fx(x\y), FY(y\x);5) fx(x\y), fY(y\x). Установить, зависимы ли СВ X и Y. Решение. уж уж 1) F(x,y) = [([ f{t,r)dtsjdr= [e~Tdr \ е~* dt = A - е~х)A - е~у) 0 0
§ 10] УСЛОВНЫЕ РАСПРЕДЕЛЕНИЯ 109 при ж ^ 0, у ^ 0; F(x,y) = 0 в остальных случаях. 2) Fx(x) = F(x, oo) = 1 - е"ж при ж > 0, FY(y) = 1 - е~у при г/ > 0. о\ ? ( \ dFx(x) т п ? / \ dFyiy) 7/ 3) fx(x) = ^ } = е~х при х > 0, /у(j/) = w = е"* при 4) Fx(x|t/)= -^- |/(^,у)^ = е^|е^е-^^=1-е-ж при х > 0. о о Аналогично, Fy(y\x) = 1 — е~у при у > 0. 5) /хОФ) = ^Fx(a;|y) = е"ж при х > 0, /у(у|ж) = е"^ при у > 0. Так как fx(x\y) = fx(x) = e~x и fy(y\x) = fy(y) = e~y , то /(ж, г/) = fx{x)fy{y) • Поэтому СВ X и Y независимы. Это означает, что появление первого покупателя во вторник не зависит от того, когда пришел первый покупатель в понедельник. 10.3. Условное математическое ожидание. Определение 10.4. Условным математическим ожиданием непрерывной СВ X при условии, что непрерывная СВ Y приняла значение у, называется функция ± | Xfx(x\y)dx. Условное МО существует, если последний интеграл сходится абсо- абсолютно. В случае дискретных СВ X и Y условное МО СВ X при условии, что Y = yj , j = 0, т, определяется формулой л п — ST^ гг.. Р*3 А — П ™ J2* , j^ i=o Pj где pij = P{X = Xi,Y = yj} , pj = Р{У = yj} . Определение 10.5. Условное математическое ожидание М[Х|у] СВ X как функция параметра у G М называется регрессией X на у. График функции х = М[Х|г/] называется кривой регрессии X на у. Аналогично определяется условное МО СВ V = ф(Х) при условии, что Y = у. Например, для непрерывных X и Y:
110 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III Рассмотрим функцию (р(у) = М[Х|г/]. Определение 10.6. Условным математическим ожиданием СВ X относительно СВ Y называется СВ V = ip{Y) = M[X\Y]. Аналогично можно определить и другие, более высокого порядка, условные моменты СВ. Свойства М[Х|у] 1) М[<0(Уг)|г/] = ф(у), где ф(у) — некоторая функция. 2) М[^(У)Х|у] = /ф(у)'М.[Х\у]. Действительно, например, в случае непрерывных СВ X и Y имеем + ОО М[ф(У)Х\у] = [ ф(у)х/х(х\у)ёх = — ОО 3) М[Х + ^(^)|у] = М[Х|у] + ф(у) • Это свойство доказывается аналогично свойству 2)М[Х|г/]. 4) М[Х|у] = М[Х], если X и Y — независимы. Пусть, например, СВ X и Y — непрерывны, тогда по свойству Б) f(x\y) + ОО +ОО М[Х\у] = | xfx(x\y) dx = | xf(x) dx й М[Х]. 5) М[Х] = М[М[Х|У]] — это равенство называется формулой полного математического ожидания. Пусть СВ X и Y непрерывны, тогда по свойству 6) /(ж, у) + ОО +ОО +ОО ( + + + М[Х]= | xfx(x)dx= | ж( J f(x, — оо —оо —оо + ОО +ОО +ОО +ОО = \ х{ \ fy(y)fx(x\y)dy)dx= 1г{у)[ xfx(x\y)dx)dy = — оо —оо —оо —оо + оо = | fY(y)M[X\y]dy = M[M[X\Y}}. — оо В случае дискретной СВ Y при конечном т формула полного МО приобретает следующий вид: = ? PjM[X\yj], где Pj ± P{Y = Vj}, j = 0, т. з=о
§ 10] УСЛОВНЫЕ РАСПРЕДЕЛЕНИЯ 111 Пример 10.2. Число TV радиотехнических приборов, сдаваемых покупателями в гарантийную мастерскую в течении дня, молено пред- представить в виде СВ, хорошо описываемой распределением Пуассона П(а), где а является средним числом радиоприборов, сданных за день. Вероятность того, что сданный прибор потребует длительного ремонта, равна р. Найдем среднее число сданных приборов, требую- требующих длительного ремонта. Так как при фиксированном числе п по- поступивших приборов количество приборов, требующих капитального ремонта, представляет собой СВ X с биномиальным распределением Bi(n;p), то М[Х|п] = пр, п = 0,1,2,... Поскольку СВ X имеет распределение Пуассона П(а), то M[7V] = а. Тогда по формуле полного МО М[Х] = M[M[X\N]\ =M[pN] =pM[N] =pa. 10.4. Корреляционная зависимость. Определение 10.7. Ковариацией (корреляционным момен- моментом) кху непрерывных СВ X и Y называется второй центральный смешанный момент kXy= М[(Х - mx)(Y - mY)] = J J (х - тх)(у - mY)f(x,y) dxdy. — оо —оо Корреляционный момент кху дискретных СВ X и Y с конечны- конечными числами возможных значений равен п п кХу = J2 J2 (х* ~ тх){Уз - ™Y)pij. г=0 j=0 Величина кху зависит от единиц измерения СВ X и Y. Во избежание этого неудобства ковариацию часто вычисляют не для X лг /-из лг А X — тх и У , а для соответствующих им нормированных СВ X = , (ух Y = — , если у СВ X и Y существуют дисперсии ах > 0 и cry * * Определение 10.8. Ковариация нормированных СВ X и Y называется коэффициентом корреляции: ± =M[XY] = [XY] XY cfxcfy Определение 10.9. СВ Х и Y называют коррелированными (корреляционно зависимыми), если гху ф 0 (кху ф 0), и некоррели- некоррелированными, если гху = 0 (кху = 0).
112 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III Определение 10.10. СВ X и Y называют положительно коррелированными, если если гху > 0, и отрицательно коррелиро- коррелированными, если гху < 0. Пример 10.3. Рассмотрим две СВ X и Y = X2, где X ~ ~ Т1(—а',а). Тогда ковариация между X и Y равна kXY = М[(Х - mx)(Y - mY)} = M[X(Y - mY)} = а = М[Х(Х2 - ту)} = — \ х(х2 - mY) dx = 0. ACL J — а Таким образом, СВ X и Y некоррелированы. В то же время СВ X и Y связаны самой «жесткой» зависимостью — функциональной. Свойства кху 1) |^xf| ^ 1, т. е. \кху | ^ о~хо~у . Это свойство доказано ниже для более общего случая (см. свойство 5)М [X] в § 11). 2) Если Y = аХ + 6, где а / 0 и Ъ — постоянные и 0 < ах < +оо, то |гху| = 1- Действительно, ту = М[У] = М[аХ + Ъ] = аМ[Х] + Ъ = атх + Ъ, = М[(У - туJ} = a2dx, (Jy = лДу~ = \а\лДх~ = \а\ах, = М[(Х - mx)(Y - A kxY acr2x а = = = кХу = М[(Х - mx)(Y - ту)} = М[а(Х - тхJ} = aD[X] = ay Следовательно, если а > 0, то txy = 1 и, если а < 0, то txy = — 1 • 3) Из независимости СВ X и Y следует их некоррелированность. Пусть, например, СВ X и Y непрерывны, тогда по свойствам 8) /(ж, у) и 5) тх имеем + ОО kXY= М[(Х - mx)(Y - mY)] = (x-mx)(y-mY)f(x,y)dxdy = — oo oo = I (x-mx)fx(x)dx I (y-my)fY(y)dy = M[x}M[Y}=0. 4) kxY = M[XY} - mxmy. Пусть, например, СВ Z = (X,Y) непрерывна. Тогда, согласно свойству 7)/(ж, г/), имеем kXY = М[(Х - mx)(Y - my)} = = M[XY] + mxmY - 2mxmY = M[XY] - mxmY.
§ 10] УСЛОВНЫЕ РАСПРЕДЕЛЕНИЯ 113 10.5. Двумерное нормальное распределение. Определение 10.11. Плотность двумерной нормально распре- распределенной СВ Z с параметрами сц , С22 > Ci2 и тп>1 •> Ш2 •> гДе сис22 ~~ — с\2 > 0, сц > 0, С22 > 0, определяется формулой / Г" Х г , ч2 , л, . ,., ч у СцС22 — С12 - - [cn(x-mi) +2ci2(^-mi)(y-m2)+C22(y-m,2) ] f(x.y)= — —е 2 Свойства двумерного нормального распределения 1) В соответствии со свойством 6) /(ж, г/) найдем плотность СВ X Сравнивая эту формулу с определением 7.3, заключаем, что СВ X имеет нормальное распределение N(mx;crx) с параметрами mx=mi, B[X\ox= г ¦ СЦС22 — С12 По аналогии молено получить плотность СВ У: т. е. У ~ N(my; aY), где ?тгу = гп2 , D[y] = сг^ = сц/(сцС22 — с\2) • 2) Вычисляя коэффициент корреляции СВ X и У, получаем + ОО +ОО гХу = | | {x-mx)(y-mY)f(x,y)dxdy = °12 . — OO —OO 3) Найдем условную плотность , | ч А /(Ж, 2/) _ ГсТГ Г 1 г Ci2 / 4i2\ Сравнивая эту формулу с определением 7.3, приходим к выводу, что fx(x\y) является нормальной плотностью, причем М[Х\у] =mi-^(y- m2), B[X\y] = — . Сц Сц 8 Кибзун А.И. и др.
114 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III Используя выражения, полученные выше для ах-, о~у, vxy-, условное МО М[Х|у] можно представить в виде соотношения М.[Х\у] = М[Х] + гХу — {у - М[У]), cry которое называется теоремой о нормальной корреляции. 4) Пусть СВ X и Y независимы. Тогда }(х,у) = fx{x)fy[y) = —=—е 2 —^—е 2 Пусть теперь СВ X и Y некоррелированы, т. е. гху — 0. Поэтому, с12 = 0 и тогда ах = 1/сц, а\ = 1/с22. Поэтому, fx(x\y) = fx(x), откуда вытекает, что /(ж, у) = fx{x)fy{y)- Таким образом, в слу- случае нормального распределения вектора Z из некоррелированности СВ X и Y следует их независимость. При этом М[Х|г/] = М[Х]. Пример 10.4. Двумерное нормальное распределение хорошо описывает, например, скорость ветра в районе аэропорта, прогнози- прогнозируемые координаты падения метеорита на поверхность Земли и т. п. 10.6. Типовые задачи. Задача 10.1. Пусть случайный вектор Z = col(X,Y) равномер- равномерно распределен в круге радиуса R: /(Ж'У)~ ^ 0, х2 + у2>^2. Требуется найти гху и ответить на вопрос: зависимы ли СВ X и Y. Решение. Из симметрии плотности вероятности следует тх = = ту = 0. Действительно, из свойства 6) /(ж, у) находим fx(x) = 0, если \х , ав случае \х\ ^ R получаем + оо VR2~x2 Г 1 Г 2 / fx(x)= J f(x,y)dy= — j dy=—\/R2-x2. Исходя из этого, ТПх — ^" ^ V -ft X ClX = 777~~rv^ \-^ X ) | = и. -R
10] УСЛОВНЫЕ РАСПРЕДЕЛЕНИЯ 115 Аналогично можно показать, что fy(y) = О, если \у\ > R, и fy(y) = 2 = —-^\/R2—x2, если |у| ^ R, поэтому ту = 0. Таким образом, имеем + ОО +ОО = j j xyf(x,y)dxdy = —^ j ж( j ydy)dx = 0, т. e. fcjy = rjy = 0. Следовательно, CB X и У некоррелиро- ваны. При этом СВ X и У зависимы, так как плотность /(ж, у) нельзя представить в данном случае в виде произведения /(ж, у) = Ответ, = 0, но СВ X и Y зависимы. Задача 10.2. Пусть дисперсии случайных величин X и Y равны между собой, D[X] = DfK]. Чему равна ковариация случайных величин X1 = (X + Y) и Х2 = {X - Y) ? Решение. Вычислим кх±х2 • По определению кх±х2 = = M[XiX2] - M[Xi]M[X2], следовательно, kXlx2 = М[{Х + Y)(X - Y)} - М[Х + Y]M[X -Y} = = M[X2 - XY + 17 - У2] - - ((М[Х]J - M[X]M[Y] + М[Х]М[У] - (М[У]J Таблица 10.1 Пользуясь свойствами математического ожидания, имеем kXlX2 = М[Х2] - (МИJ - (М[У2] - (М[У]J) = ЩХ] - D[F] = 0. Ответ. кх±х2 = 0 . Задача 10.3. Шесть футбольных команд, участвующих в турни- турнире, разбиты на две группы по три ко- команды. Победители групп выходят в финал. Эксперты оценивают вероятно- вероятности появления финальных пар соглас- согласно данным табл. 10.1. Найти наибо- наиболее вероятных претендентов на выход в финал и коэффициент корреляции между претендентами на выход в фи- финал из двух групп. Решение. Чтобы определить наиболее вероятных претендентов, найдем частные распределения компонент X (номер команды в первой подгруппе) и Y (номер команды в первой подгруппе). Для X\Y 1 2 3 1 2/9 1/9 2/9 2 1/9 0 1/9 3 0 1/9 1/9
116 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III этого воспользуемся формулой (9.1). Ряды распределения случайных величин X и Y заданы соответственно в табл. 10.2 и 10.3. Таблица 10.2 Таблица 10.3 X р 1 1/3 2 2/9 3 4/9 Y Р 1 5/9 2 2/9 3 2/9 Таким образом, наиболее вероятным претендентом на выход в финал из первой подгруппы является третья команда, а из второй подгруп- подгруппы — первая. Для нахождения коэффициента корреляции найдем дисперсии случайных величин X и Y и их ковариацию: г=1 3 9 У 3 ;"?j -9'765' 3 = ('-!)-И'-i) ИЧ) Ь»« ^•^0,148. Коэффициент корреляции Txy вычисляется следующим образом: txy = ^~ ~ 0,207. сгхсгу Ответ. Наиболее вероятным претендентом на выход в финал из первой подгруппы является третья команда, а из второй подгруппы — первая. Искомый коэффициент корреляции txy ~ 0,207.
10] УСЛОВНЫЕ РАСПРЕДЕЛЕНИЯ 117 Задача 10.4. Пусть Y\ = аХ\ + 6, Y2 = сХ2 + d. Доказать, что кугу2 = аскх1х2 •> гДе ^1 и ^2 — некоторые случайные величины. Решение. Для решения этой задачи воспользуемся определе- определением: у1= аХ1 + Ъ - М[аХ1 + 6] = а(Хх - M[Xi]) = аХь у2= аХ2 + Ъ - М[аХ2 + Ъ] = а(Х2 - М[Х2}) = аХ2 • Используя свойства математического ожидания, получим kYlY2 = M[YiY2] = M[acXiX2] = ackXlx2> что и требовалось доказать. Задача 10.5. Игральная кость размечена таким образом, что сумма очков на противоположных гранях равна 7 (т. е. 1 и 6, 2 и 5, 3 и 4). Пусть X — число очков на верхней грани; Y — число очков на нижней грани. Построить совместный закон распределения случайных величин X и Y и найти коэффициент корреляции между ними. Решение. Ясно, что выполняется равенство X + Y = 7, и поэтому Р{Х + У^7} = 0. Следовательно, для построения таблицы распределения случайного вектора Z = col(X, Y) остается вычислить следующие вероятности: Р{Х = 1, Y = 6} = Р({Х = 1} • {Y = 6}) = = Р({Х = 1} • {7 - X = 6}) = Р({Х = 1}) = 1/6, Р{Х = 6, Y = 1} = Р{Х = 6} = 1/6. Аналогично можно показать, что Р{Х = 2, У = 5} = Р{Х = 5, У = 2} = Р{Х = 2}) = 1/6, Р{Х = 3, Y = 4} = Р{Х = 4, У = 3} = Р{Х = 3} = 1/6. Таблица 10.4 X\Y 1 2 3 4 5 6 1 0 0 0 0 0 1/6 2 0 0 0 0 1/6 0 3 0 0 0 1/6 0 0 4 0 0 1/6 0 0 0 5 0 1/6 0 0 0 0 6 1/6 0 0 0 0 0 Таблица распределения случайного вектора Z представлена в табл. 10.4.
118 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III Поскольку между случайными величинами X и Y имеется линейная связь X = 7 — Y, то, согласно свойству 2) кху •> ^xy = ~1 • Ответ, гху = — 1- Задача 10.6. Случайные величины X и Y независимы и распределены по нормальному закону. Известно, что М[Х] = а, М[У] = 6, D[X] = D[y] = а2. Найти радиус R круга с центром в точке (а, Ъ), вероятность попадания в который случайной точки (Х,У) равна 0,997. Решение. Обозначим Z = col(X, Y). Поскольку СВ X и У независимы, то fz(x,y) = fx(x)fY(y) = 7= л/Z7T 7^ у2тг В этом случае искомая вероятность P(D), где D = круг радиуса R с центром в (а, Ь), вычисляется согласно свойству fz(t,r)dtdr= JJ fx(t)fY(r)dtdT = J J ехр dtdr = t — а = ^ Я и = г cosy?, _ 1 v = г simp \\ ~ 2тг 2тг г е ? 1 с/г = о о yJ=i-eXPJ^ Теперь, решая уравнение _Е>2 1 _ p^-n J ^ К ~ С) QQ7 получим Д2 = -2сг2 • In 0,003 « 11,6 а2. Отсюда R « 3,41а. Ответ. Д^
§ 11] МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 119 § 11. Многомерные случайные величины 11.1. Основные характеристики многомерных СВ. Определение 11.1. Для непрерывной п -мерной случайной ве- величины (случайного вектора) X = col(Xi,... , Хп), где Х\,... , Хп — скалярные СВ, определенные на одном и том же пространстве элемен- элементарных событий, функция распределения F(xi,... , жп) и плотность распределения /(a?i,... , жп), которая неотрицательна, определяются следующим образом: F(x, х ) - Р(Х, <хл X < х \ - XI Хп А Г Г J J — оо —оо Основные результаты, полученные для двумерной СВ, переносятся и на п-мерную СВ. В частности, в точках непрерывности плотности выполнено равенство /(жь... ,хп) = — Определение 11.2. Математическим ожиданием (МО) слу- случайного вектора X называется вектор М[Х] = тх = col(rai,... ... , тп), где га» = M[Xi], г = 1, п. Замечание 11.1. МО случайного вектора X есть вектор коор- координат «средней» точки (rai,... , гап) в п -мерном пространстве Мп , вокруг которой группируются реализации случайного вектора X. Определение 11.3. Матрицу К размерности п х п с элемен- элементами kij = M[(JQ — rrii)(Xj — rrij)] называют ковариационной матри- матрицей. Элементы kij ковариационной матрицы являются ковариациями СВ Xi и Xj при г ф j , а диагональные элементы кц — дисперсиями СВ Х{, т.е. кц = di = о-\ = M[(Xi - га»J], г = 1,п. Дисперсии di, г = 1,п, характеризуют рассеивание реализа- реализаций компонент случайного вектора относительно средней точки тх = col(rai,... , гап), а при фиксированных дисперсиях ковариа- ции kij характеризуют степень линейной зависимости между СВ Х{
120 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III и Xj . В частности, по свойству 2) кху ПРИ линейной связи между Х{ и Xj ковариация между ними равна к^ = zbcr^cr^ , а по свойству 1) кху всегда \kij\ ^ (Ji(Jj. Определение 11.4. Нормированную ковариационную матри- матрицу R, элементами которой являются коэффициенты корреляции г^ , называют корреляционной матрицей. Матрицы К и R неотрицательно определены и, кроме того симметричны, так как kzj = M[(Xi - mi)(Xj - rrij)} = M[(Xj - mj){Xi - тг)} = kj{. Определение 11.5. CB Xi,... , Xn называются независимы- n ми, если для любых жх,... , хп G Ж1: F(x\,... , хп) = Y[ Fi(xi) •> гДе Fi(x) — функция распределения CB J^. Определение 11.6. СВ Х\,... ,Хп называются попарно некоррелированными, если kij = 0 при всех г ф j. Если СВ Х\,... ,Хп независимы, то они являются и попарно некоррелированными. Обратное утверждение неверно. Если СВ Z = col(Xi,... ,Xn) является непрерывной, то для независимости Xi,...,Xn необходимо и достаточно, чтобы i,..., жп) = Yl fi(xi) BO всех точках непрерывности этих функций. Этот факт доказывается по индукции на основе свойства 8) /(ж, у) для двух случайных величин. Свойства М[Х] и D [X] 1) М[^ Xi] = jr M[Xi]. Пусть Z = со1(Х,У) - непрерывная двумерная СВ, где X = Х\, Y = Х2 . По свойствам 6)/(ж, у) и 7) /(ж, у) имеем + ОО +ОО +ОО +ОО М[Х + Г]= J | (aj + y)/(a;,y)da:dy = — ОО —ОО —ОО —ОО Ьоо +оо +оо +оо — оо —оо —оо —оо Аналогично доказывается формула и для дискретных С В X и Y. Общая формула доказывается по индукции. ОО +ОО +ОО \у( j f(x,y)dx)dy= jxfx(x)dx
§ 11] МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 121 П П 2) Если СВ Х{, i = Т~гг, независимы, то М[Ц Х{] = JJ М[Х{]. Пусть Z = col(X, Y) — непрерывная двумерная СВ, тогда по свойствам 7) /(ж, у) и 8) /(ж, у) имеем M[XY]= J J xyf(x,y)dxdy = J J xyfx(x)fY(y)dxdy = —oo —oo + OO +00 = I xfx(x)dx I yfY(y)dy = M[X]M\Y]. — oo —oo —oo —oo + OO +00 Общая формула доказывается по индукции. п п п—1 п з) r>[j2Хг] = ЕD№] +2Е Е %¦ пусть z = co\(x,y), тогда по свойству 1)М [X] В[Х + Y]= M[(X + Y- М[Х + У]J] = = М[(Х + Y-(mx+ mY)J} = М[((Х - тх) + (У - mY)J} = = М[(Х - тхJ] + М[(У - туJ] + 2М[(Х - mx)(Y - ту)] = = T>[X]+T>[Y]+2kXy. Аналогично доказывается формула и для дискретных С В X и Y. Общая формула доказывается по индукции. 4) Если СВ Xi, г = 1,п, попарно некоррелированы, т.е. kij = О при г Ф j', то из свойства 3)М [X] следует г=1 г=1 5) |г^-| ^ 1 при г / J- Обозначим X = Х^, У = Ху. Пусть ах > 0, ay > 0. Рассмотрим нормированные СВ Х= — , У= — , ах cry * * для которых D[X] = D[y] = 1. По определению 10.8 получаем тху = = к * *. Поэтому, по доказанному выше свойству D[X + У] = D[X] + D[y] + 2k ^ = 2 + 2rXY- * * Так как дисперсия не может быть отрицательной, т. е. D[X + У] ^ 0, то получаем неравенство 2 + 2гХу > 0. Отсюда следует, что rXy ^ ^ -1.
122 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III * * Рассматривая дисперсию Т>[Х — У], молено аналогично получить, что выполняется неравенство гху ^ 1- Таким образом, \гху\ ^ 1- 11.2. Многомерное нормальное распределение. Определение 11.7. Говорят, что п-мерная СВ X = col(Xi,... .,ХП) имеет нормальное (гауссовское) распределение, X ~ N(m; К), если ее плотность распределения есть fx(x) = — = ехр \ (х — т)т К~1(х — гп) } , где det К — определитель положительно определенной матрицы К, А ,/ ч A w ч l(i,... , mn), x = col(xi,... , xnj. Плотность нормального распределения можно задать также через элементы обратной матрицы К-1 таким образом, как это сделано в определении 10.11 при рассмотрении двумерной СВ. Свойства нормального распределения N(m; if) 1) М[Х] = ?тг, ковариационная матрица СВ X равна М[(Х — -m){X-m)T] = K. 2) Так как матрица К — невырожденная, то каждая г-я компонента Х{ вектора X распределена нормально. 3) Если X г^ NG77,; К), то Y = АХ + 6, где А — матрица размерности п х к с rang А = к и Ъ — вектор размерности п, имеет распределение N(my; К у), где my = Am + Ъ, if у = АКАТ . 4) Пусть СВ Y = aiXi + ... + апХп , где Хь ... , Хп распределены нормально, а коэффициенты ai,... , an G IR не все равны нулю. Тогда СВ Y распределена нормально. 5) Если случайный вектор имеет нормальное распределение, а его компоненты попарно некоррелированны, то /Oi,... ,хп) = !^ I х ... \ ) т. е. СВ Xi,... , Хп независимы. Но из независимости следует некор- некоррелированность (см. свойство 3) кху )? поэтому для нормального рас- распределения условия некоррелированности и независимости эквива- эквивалентны.
§ 11] МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 123 11.3. Биржевой парадокс. Рассмотрим любопытный экономи- экономический пример. Пусть имеется начальный капитал К, который тре- требуется увеличить. Для этого имеются две возможности: вкладывать деньги в надежный банк и покупать на бирже акции некоторой компании. Пусть и — доля капитала, вкладываемая в банк, a v — доля капитала, расходуемая на приобретение акций. Очевидно, что О ^ u-\-v ^ 1. Предположим, банк гарантирует Ъ х 100% > 0 годовых, а акции приносят X х 100% годовых. Так как предполагается, что банк абсолютно надежен, то Ъ является неслучайной величиной. Сто- Стоимость акций, как правило, меняется в течение года, т. е. X является случайной величиной. Допустим, что приобретение акций в среднем более прибыльно, чем вложение средств в банк, т.е. тх = М[Х] > > Ь > 0. Но при этом имеется ненулевая вероятность того, что акции обесценятся и мы потеряем все деньги, вложенные в акции, Р{Х ^ ^ -1} = е>0. Таким образом, мы можем надеяться, что через год капитал составит величину К\ = КA-\-bu-\-Xv), которая является случайной. Рассмотрим также ожидаемое через год среднее значение капитала: К0(щ v) = М[КA + Ъи + Xv)] = K(l + Ъи + mxv). Поставим задачу распределить капитал таким образом, чтобы макси- максимизировать средний доход за год: o) = max Kq(u.v). Нетрудно найти решение этой простой задачи линейного програм- программирования. Так как по условию задачи тх > Ь > 0, то, очевидно, все деньги нужно вкладывать в акции, которые в среднем более прибыльны, чем вложение в банк, т.е. щ = 0, Vq = 1. При такой стратегии среднее значение капитала через год будет максимально: K0(u0,v0) = K(l + mx). Выясним, к чему приведет такая стратегия управления капиталом, если применять ее многократно. Пусть Xi, г = 1,п, — ежегодный прирост капитала за счет приобретения акций. Предположим, что СВ Xi, г = 1, тг, независимы. Пусть щ = 0, Vi = 1, i = 1, п, т. е. ежегодно покупаются только акции, которые в среднем более прибыльны, чем вложение в банк, M[JQ] = mx > Ь > 0. Тогда среднее значение капитала через п лет составит величину
124 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III Здесь использовалось свойство 2)М[Х]. Так как по предположению тх > 0, то 1 + тх > 1 • Поэтому при п —)> оо получаем Кп —> —>• оо. Образно говоря, при таком управлении капиталом можно стать неограниченно богатым «в среднем». Посмотрим, что происходит с вероятностью нашего разорения при выбранной стратегии где событие Ai = {Xi : 1 + Xi ^ 0} характеризует разорение в г-й год, а событие Вп = А\ +... + Ап — возможность разорения хотя бы один раз за п лет. Рассмотрим противоположное событие Вп = ?1\Вп. Воспользовав- Воспользовавшись свойством 11)^4, находим Вп = f[ Аг, где Ai = {Xi:l + Xi> 0}. Так как СВ Х{ независимы, то независимы такж:е события А^ г = = 1,п. Поэтому имеем р(в„) = П рШ = П р{^ +1 > о}. г=1 г=1 Но по предположению ~Р(А{) = P{^Q ^ — 1} = ? > 0, т. е. с ненулевой вероятностью можно потерять весь капитал в каждый г-й год. Поэтому ~P(Ai) = 1 — ~P(Ai) = 1 — е < 1. Отсюда следует, что Р(Вп) = A-е)п ^0 при п^оо. А следовательно, Р(Вп) = 1 — Р(Вп) —> 1 при п —>• оо, т. е. веро- вероятность разорения при выбранной стратегии стремится к единице. И это несмотря на то, что средний доход стремится к бесконечности. В этом и состоит биржевой парадокс, к которому мы пришли, решив покупать лишь одни акции, пренебрегая возможностью получения в банке хоть и небольшой, но зато гарантированной, прибыли. Это значит, что не следует «складывать все яйца в одну корзину». На практике, чтобы избежать этого парадокса, используют так называемую логарифмическую стратегию, которая определяется из следующего условия: L0(uL,vL)= max M[ln(l + Ьи + Xv)], т. е. из условия максимизации средней скорости роста капитала. В частности, иногда предполагают, что СВ Y = 1 + X имеет логнор- мальное распределение (см. определение 7.5). При логарифмической
§ 11] МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 125 стратегии капитал распределяется, как правило, в некоторых пропор- пропорциях между покупкой акций и вложением в банк. Следует также отметить, что рассмотренный пример хорошо иллюстрирует особенность поведения случайной последовательности ц при п —> оо. В отличие от детерминированной последовательности случайная последовательность может сходится в разных смыслах и к разным значениям. В данном примере если щ > 0 и Vi = 1, то Zn чоо в среднем и в то же время Zn —>• 0 по вероятности. 11.4. Типовые задачи. Задача 11.1. Для случайных величин X и У, рассмотренных в задаче 9.2, проверить справедливость следующих равенств: М[Х + Y] = М[Х] + М[У], В[Х + Y] = Т>[Х] + Б[У] + 2kXY. A1.1) Решение. Для проверки указанных равенств найдем необходи- необходимые значения М[Х], М[У], D[X], D[y], fexy5 воспользовавшись полученными в задаче 9.2 рядами распределения СВ X и У: 2 3 М[Х] = ? XiPi = i, М[У] = 11 ^ г1 г г=1 г=1 = (""8") "в"' Vх 8J ' 8 * V 8 У 2 " 64' 2 3 ---• — = —. 8 2 8 16 г=И=1 Таким образом, имеем
126 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III Согласно задаче 9.2, M[Z] = у , D[Z] = ^ , где Z = X + Y. Следовательно, справедливы равенства A1.1). Ответ. Равенства A1.1) верны. Задача 11.2. Дана ковариационная матрица случайного вектора Z = col(XuX2,X3): ( 16 -14 12 \ Кг = \Ы= -14 49 -21 . V 12 -21 36 / Составить корреляционную матрицу Rz = \\^ij\\ • Решение. Поскольку по определению _ _ -I4 _ I4 _ 1 Г12-Г21-7тГЦ-~^-~2; I? - _I. - - -21 _ _21 _ 1 — - 2' r23 - ^32 - /Tq736 ~ 42 ~ 2' / 1 -1/2 1/2 \ Ответ. Цг^-Ц = -1/2 1 -1/2 . V 1/2 -1/2 1 J Задача 11.3. Известно, что ЩХ] = 1, Б[У] = 2, Б[Х + У] =3. Найти Решение. Используя формулу для дисперсии суммы, получаем В[Х + Y]= D[X] + T>[Y] + 2 • kXY, откуда kXY = \ (ЩХ + Y]--D[X}- Б[У]) = *Ц=± = О. Ответ. kxY = 0. Задача 11.4. На столе налогового инспектора лежат три декла- декларации от представителей различных групп населения. Вероятности сокрытия доходов при заполнении декларации для одного представи- представителя каждой группы равны соответственно 0,05, 0,1 и 0,15. Предпо- Предположим, что сокрытие доходов обнаруживается при проверке в 100% случаев. Найти средний доход государства от проверки этих декла- деклараций, если сумма налагаемого штрафа при обнаружении сокрытия
§ 11] МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 127 дохода составляет по группам населения 100, 250 и 500 минимальных окладов соответственно. Решение. Рассмотрим случайную величину X, равную доходу государства от проверки трех деклараций. В задаче требуется найти средний доход, т. е. математическое ожидание СВ X. Молено найти М[Х], построив ряд распределения СВ X и воспользовавшись опре- определением математического ожидания. Однако процедура построения ряда распределения СВ X представляется достаточно трудоемкой. Данная задача допускает более простое решение, основанное на ис- использовании распределения Бернулли. Случайная величина X может быть представлена следующим образом: X = 100Xi + 250Х2 + 500Х3, где Xi ~ В1A;р^), г = 1, 3, рх = 0,05, р2 = 0,1, р3 = 0,15. Случайная величина Х{, имеющая распределение Бернулли, принимает значение 1, если г-й подавший декларацию скрывает доход, и 0 — в противном случае, причем М[Х^] = pi, г = = 1,3. Воспользуемся свойствами математического ожидания для вычисления М[Х] : М[Х] = 100M[Xi] + 250М[Х2] + 500М[Х3] = = 100pi + 250р2 + 500р3 = Ю5. Ответ. Средний доход государства от проверки поданных трех деклараций составит 105 минимальных окладов. Задача 11.5. Известно, что случайный вектор Z = col(X, Y), где СВ X — рост наугад взятого взрослого мужчины и СВ Y — его вес, удовлетворительно описывается двумерным нормальным законом распределения с математическим ожиданием mz = colA75,74) и ковариационной матрицей ( 49 28 28 36 Считается, что человек страдает избыточным весом, если выполняет- выполняется неравенство X — Y ^ 90. Найти: а) математическое ожидание и дисперсию характеристики избыточного веса X — Y; б) вероятность того, что наугад выбранный мужчина страдает избыточным весом. Решение, а) Так как вектор Z = col(X, Y) распределен нормаль- нормально, то нормально распределены и его координаты: X ~ NA75; 49), Y rsj NG4; 36). Теперь, согласно свойству 2)N(m;if), разность X — — Y распределена нормально. Вычислим параметры этого закона
128 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III распределения М[Х - У] = 175 - 74 = 101; -Y}= Т>[Х] + Б[У] - 2kXY = 49 + 36 - 2 • 28 = 29. б) Таким образом, X — У ~ NA01; 29), и следовательно Р{Х - Y <: 90} = \ + Фо 0,5 - Ф0B,04) « 0,021. Ответ, а) М[Х - У] = 101, Б[Х-У] = 29; б) Р{Х - Y <: 90} ; 0,021. 12. Задачи для самостоятельного решения 1. Пусть F(x,y) — функция распределения случайного вектора Z = col(X, Y). Будет ли F(x,0) функцией распределения некоторой случайной величины? 2. СВ X - Bi(l;0,2), Y - Bi(l;0,8). Для СВ Z = X + + Y вычислить Fz(l), считая все события, связанные с X и У, независимыми. 3. Случайные величины X ~ N@; 1), У ~ ЕA). Вычислить М[Х3 - У2]. 4. Подбрасывают три игральные кости. Рассматриваются случай- случайные величины: X — количество костей, на которых выпало шесть очков, У — количество костей, на которых выпало пять очков. Найти + У] и закон распределения СВ Z = X + У . 5. Задан закон распределения случайного вектора Z = col(X, У) (см. табл. 12.1). Требуется: Таблица 12.1 а) найти закон распределения случайной величины X + У ; б) проверить справедливость равенств: М[Х + У] = М[Х] + М[У], У\Х 1 2 3 -1 1/6 0 1/3 1 1/3 1/6 0 У] = Т>[Х] 2k XY • 6. Найти ковариацию ксх, где X — некоторая СВ, а с — константа.
§ 12] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 129 7. В продукции завода брак вследствие дефекта А составляет 3% , а вследствие дефекта В — 4, 5% . Годная продукция составляет 95% . Найти коэффициент корреляции дефектов А и В. 8. Случайный вектор Z = col(X, Y) имеет совместную плотность вероятности /(ж,у)= - ^—^ — . Требуется: а) найти неизвестную константу а ; б) исследовать величины X и Y на независимость и некоррели- некоррелированность. 9. Случайный вектор Z = col(X, Y) имеет функцию распределе- распределения Fx \ = Г 1 + е(+^) - е~Хх - е-™, х ^ 0, у ^ О, V 5 У) у q — в остальных случаях. Найти частные распределения СВ X и Y. Исследовать эти величины на независимость и некоррелированность. 10. Является ли функция F(x, у) = х -у, где ж, у G Ж1, функцией распределения некоторого случайного вектора? 11. Является ли функция F(x,y) = — ( ^ +arctgx) ( ^ +arctgy) , ж, у G Ж1, функцией распределения некоторого случайного вектора? 12. Пусть /(ж, г/)— плотность вероятности случайного вектора Z = col(X, У). Будет ли /(у, ж) плотностью вероятности некоторого случайного вектора? 13. Известно, что М[Х] = 1, М[Х2} = 2. Найти кХх • 14. Известно, что СВ X - ЕA), Б[У] = 2 , D[X - У] = 3. Найти 15. Найти коэффициент корреляции между случайными величи- величинами: а) XnY = 18X;6) XkY = 7-2X. 16. Известно, что СВ X - R(-l; 1). Пусть Y = cosX. Найти кху • 17. Компания решила осуществить три независимых проекта по созданию уникальной продукции в единственном экземпляре. Затраты на осуществление каждого проекта одинаковы и равны 1000 у.е. Цена экземпляра продукции, полученного в результате осуществления первого проекта, в 3 раза превышает затраты на 9 Кибзун А.И. и др.
130 СЛУЧАЙНЫЕ ВЕКТОРЫ [ГЛ. III Таблица 12.2 X\Y 1 2 3 1 1/3 1/27 1/27 2 1/3 1/9 1/27 3 1/27 1/27 1/27 его создание. Для оставшихся двух проектов соотношение цены к затратам равно соответственно 5 и 7. Вероятности того, что полученные три экземпляра при установленных ценах найдут сбыт, равны соответственно 0,9, 0,7, 0,55. Найти, во сколько раз средний доход от продажи всей продукции превысит суммарные затраты на ее производство (при условии неизменности цен). 18. У каждого из двух основных предвыборных блоков партий и объединений имеется список из трех наиболее вероятных кандидатур на выдвижение в качестве претенден- претендента на пост президента. Рассмотрим случайный вектор Z = col(X, Y), где X — номер претендента, выдвигаемо- выдвигаемого для финального тура голосования в списке первого блока, a Y — ана- аналогичный номер претендента в списке второго блока. Вероятность появле- появления различных пар в финальном туре голосования, согласно оценкам экспертов-политологов, отражена в табл. 12.2. Определить наиболее вероятных претендентов от каждого блока и коэффициент корреля- корреляции между номерами претендентов в финальном туре голосования. 19. Брак в продукции завода вследствие дефекта А составил 6% , причем среди забракованной по признаку А продукции в 4% случаев встречается дефект В, а в продукции, свободной от дефекта А, дефект В встречается в 1% случаев. Найти вероятность встретить дефект В во всей продукции и коэффициент корреляции между признаками А и В. 20. Распределение случайного вектора задано табл. 12.3. Найти закон распределения случайной Таблица 12.3 величины X\Y -1 1 -1 0,07 0,2 0 0,1 0,23 1 0,13 0,27 21. Две независимые случайные величины X и Y подчинены показательному закону: X ~ Е(А), Y ~ E(/z). Написать выраже- выражение совместной плотности вероятности и функции распределения. Подсчитать вероятность попадания в квадрат с вершинами ^4@,0), 22. Найти вероятность того, что случайно брошенная точка с координатами (X, Y) попадет на область D, определенную неравен- неравенствами {1 ^ ж ^ 2,1^г/^2}, если функция распределения координат этой точки равна 0 — х > 0, у > 0, в остальных случаях.
§ 12] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 131 23. Случайный вектор Z = col(X, Y) имеет совместную плотность вероятности = / 4хуе~(х2+у2\ х ^ 0, у ^ О, О — в остальных случаях. Найти корреляционную матрицу случайного вектора Z. 24. Плотность распределения вероятностей случайного вектора Z = col(X, Y) имеет вид J — в остальных случаях. Найти: а) постоянную с; б) вероятность Р{Х + Y < 2} ; в) функцию распределения СВ X . 25. Задана функция распределения случайного вектора Z = = col(X, У) : О — в остальных случаях. Найти: а) двумерную плотность распределения случайного вектора Z; б) вероятность попадания случайной точки с координатами Z в треугольник с вершинами ^4A, 3), 5C, 3), СB, 8).
ГЛАВА IV СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ 13. Закон больших чисел 13.1. Виды сходимости последовательностей СВ. В п. 1.3 при определении вероятности указывался эмпирический факт, состо- состоящий в устойчивости частоты появления события А в исследуемом опыте G при последовательном его повторении. Этот эксперимен- экспериментальный факт может быть обоснован математически с помощью зако- закона больших чисел. Но для этого нам понадобятся некоторые понятия, характеризующие сходимость последовательности СВ. Определение 13.1. Бесконечная последовательность СВ Хп , п = 1,2,... , определенная на одном пространстве элементарных событий ?7, называется случайной последовательностью (СП) и обозначается {Хп} , п = 1, 2,... Замечание 13.1. Если последовательность состоит из детерми- детерминированных величин хп , то говорят, что последовательность сходится к величине х (это обозначается хп —>• х или lim хп = х), если для п—)-оо любого е > 0 найдется такое N > 0, что \хп — х\ < е для всех п ^ ^ N. Попробуем уточнить смысл этого понятия для случайной после- последовательности. Так как для любого п , вообще говоря, может найтись такое е > 0, что случайное событие {uj : \Xn(oS) — X{uS)\ ^ e} / 0, то нельзя говорить о сходимости случайной последовательности Хп к X в приведенном выше детерминированном смысле. Мы рассмотрим четыре вида сходимости последовательностей СВ. В дальнейшем для краткости записи мы по-прежнему не будем указывать зависимость СВ Xn(uj) от элементарного события со. Определение 13.2. Пусть Fn(x) — функция распределения СВ Хп , где п = 1, 2,... , и F(x) — функция распределения СВ X. СП {Хп} , п = 1,2,... , сходится по распределению к СВ X при п —> оо, если последовательность функций распределения Fn{x) СВ Хп сходится к функции распределения F[x) СВ X в каждой точке х непрерывности функции F(x), т.е. Fn(x) —)> F(x) при п —>• оо. Этот вид сходимости будем обозначать Хп
§ 13] ЗАКОН БОЛЬШИХ ЧИСЕЛ 133 Пример 13.1. Поясним на примере случай, когда Fn{x) сходит- сходится к F{x) во всех точках, за исключением точек разрыва функции F(x). Пусть с вероятностью 1 Хп = 1/п, п = 1,2,... , и X = 0. Для них х ^ О, Fn(x) = ( J' X J }/П' ВД = ( J' nw | 0, ж < 1/п, v ; ^ 0, Очевидно, что Fn{x) —>• F{x) при п —>• оо для всех х ф 0. Но .Fn@) = 0 для всех n, a -F(O) = 1, поэтому последовательность {.Fn@)} , п = 1, 2,... , не сходится к F@). Но точка х = 0 является точкой разрыва функции .F(a?), поэтому согласно определению 13.2 р Хп > X . Определение 13.3. Случайная последовательность {Хп} , п = = 1,2,... , сходится почти наверное (п.н.) к СВ X при п —> оо, что записывается как Хп > X , если ;: lim X^iuo) = Х(с Очевидно, что если Хп —'—^- X, то вероятность события, состоящего из таких со, что последовательность {хп} реализаций СВ Хп(со) не сходится к реализации х СВ X(uj) , равна нулю: {ио: lim Xn(uj) ф Х(и)\ = 0. Таким образом, сходимость почти наверное случайной последователь- последовательности понимается по реализациям СВ Хп и X и в этом смысле похожа на сходимость детерминированной последовательности. Кроме того, можно показать, что сходимость Хп —'—^- X равно- равносильна тому, что для всех е > 0 имеет место lim P I sup \ХШ -Х\^е\ = 1. Определение 13.4. Случайная последовательность {Хп} , п = = 1,2,... , сходится по вероятности к СВ X при п —)> оо, Р что записывается как Хп > X, если для всех е > 0 справедливо lim P{|Xn - Х\ ^ е} = 1 или lim P{|Xn - Х\ > е} = 0. п—>-оо п—>-оо Сходимость п.н. для случайной последовательности влечет за собой и сходимость по вероятности. Действительно, ^ <и : sup |Xm(cj) - Х(и)\ ^ е i
134 СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ [ГЛ. IV Поэтому lim Р{|ХП - Х\ <: е} ^ lim P { sup \Xm - X\^s =1. Из сходимости по вероятности не следует сходимость п.н. Р F Если Хп у X, то молено доказать, что и Хп > X. Обратное утверждение, вообще говоря, неверно. Замечание 13.2. В биржевом парадоксе мы имели сходимость zn -^ о. Теорема 13.1. (Неравенство Чебышева, усиленный вариант). Пусть г-и абсолютный момент СВ X конечен, т.е. М[|Х|Г] < < оо. Тогда для всех е > 0 выполняется неравенство Р{|Х| ^ е} ^ Доказательство. Для простоты доказательства предполо- предположим, что у СВ X существует плотность распределения fx(x). Тогда, используя свойство 3) f(x), имеем + ОО А Г |Г ? / Ч 7 . Г I \Г ? / \ 7 \ — х| JX\x)ax &¦ \^\ JXy^J ах ^ -оо |х|^е откуда следует доказываемое утверждение. Рассмотрим важный частный случай приведенного неравенства. Пусть СВ Y = X — гпх-) где тпх = М[Х]. Тогда, полагая в неравенстве Чебышева г = 2, получим Замечание 13.3. Данное неравенство, позволяющее оценить сверху вероятность отклонения СВ от ее МО на основе информации лишь о ее дисперсии, широко используется в теории оценивания и управления стохастическими системами. В литературе чаще всего именно последнее неравенство называют неравенством Чебышева. Определение 13.5. Случайная последовательность {Хп} , п = = 1,2,... , сходится к СВ X в среднем квадратпическом при п —у —У оо , что записывается как Хп '> X , если М[|ХП — Х\2] —у 0 при п —у оо.
13] ЗАКОН БОЛЬШИХ ЧИСЕЛ 135 с к Р Покажем, что если Хп —'—^ X, то Хп > X. Действительно, рассмотрим СВ Yn = Хп — X. В силу неравенства Чебышева для СВ Yn имеем Поэтому, если Хп '> X, т.е. М[|ХП — Х\2] —> 0 при п —)> оо, то для любого е > 0 выполняется Р{|У^| > е} —>• 0 при п —>• оо, т. е. р Хп >• X. Из сходимости по вероятности не следует сходимость в среднем квадратическом. Связь между различными видами сходимости удобно представить в виде логической схемы (рис. 13.1). Рис. 13.1 13.2. Сходимость усредненной суммы независимых СВ. Определение 13.6. Будем говорить, что случайная последова- последовательность {Хп} , п = 1, 2,... , является последовательностью неза- независимых СВ Хп , если при любом п СВ Xi,... , Хп независимы. Рассмотрим усредненную сумму Yn = — независимых СВ к=1 ], к = 1, п. Используя свойство 4)М [X], получим M[Yn] = I ? М[Хк] й I ? тк, B[Yn] = ± ? ЩХк]. к=1 к=1 к=1 Определение 13.7. Будем говорить, что к последовательности {Хп} , п = 1, 2,... , независимых СВ применим закон больших чисел (ЗБЧ), если \Yn - M[Yn]\ —^ Оприп^оо. Теорема 13.2. Если для последовательности {Хп}, п = = 1,2,... , независимых С В выполняется условие lim DfY^l = 0, п—)-оо то к этой последовательности применим закон больших чисел.
136 СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ [ГЛ. IV Доказательство. Утверждение теоремы равносильно тому, что lim Р{|Гп-М[Уп]|>?} = 0. п—>-оо По неравенству Чебышева Р{|ГП - М[У„]| > е} ^ P{\Yn - M[Yn}\ >е}^ ^ р Согласно условию теоремы, получаем: \Yn — М[УП]| > 0. Утверждение теоремы остается верным, если С В {Хп}, п = = 1,2,... , являются лишь попарно некоррелированными, так как свойство 4)М [X] сохраняется и для некоррелированных СВ. Теорема 13.3. (Теорема Чебышева). Если последовательность {Хп} образована независимыми СВ, дисперсии которых равномерно ограничены, т.е. существует такая константа с, что D[Xn] ^ ^ с для всех п = 1, 2,... , то к этой последовательности применим закон больших чисел. Доказательство. Так как D[X&] ^ с для всех к = 1, 2,... , то, используя свойство 4)М [X] , получим Но с/п —>- 0 при п —>- оо, т. е. условие теоремы 13.2 выполнено и к последовательности {Хп}, п = 1,2,... , применим закон больших чисел. Теорема 13.4. Если последовательность {Хп} , п = 1,2,... , образована независимыми СВ с одинаковыми распределениями и ко- конечной дисперсией D\X\ < +оо, то к этой последовательности применим закон больших чисел, причем Yn > тх , где тпх = = mk = M[Xk], k = 1,2,... Доказательство. В данном случае D[X&] = dx < оо для всех к = 1,2,... Поэтому условие теоремы Чебышева выполнено. Кроме того, М[Х&] = rrik = mx для всех к = 1, 2,... Поэтому р откуда следует, что \Yn — mx\ > 0. Определение 13.8. Будем говорить, что к последовательности {Хп}, п = 1,2,... , независимых СВ применим усиленный закон больших чисел, если \Yn — М[У^]| —'—^ 0 при п —>• оо.
§ 13] ЗАКОН БОЛЬШИХ ЧИСЕЛ 137 Из усиленного закона больших чисел следует закон больших чисел, так как из сходимости почти наверное следует сходимость по вероятности. Теорема 13.5. (Теорема Колмогорова). К последовательности {Хп} , п = 1,2,... , независимых одинаково распределенных СВ, у которых гпх конечно, применим усиленный закон больших чисел, m. е. Yn > тпх • В данной теореме, в отличие от теоремы 13.4, не требуется существования дисперсии СВ Хп . Но доказательство этой теоремы значительно сложнее, чем доказательство теоремы 13.4, поэтому мы не приводим его в данной книге. Замечание 13.4. Закон больших чисел — это, по сути, свойство случайной последовательности {Хп},п = 1,2,... , состоящее в том, что случайные отклонения отдельных независимых С В Хп от их общего среднего значения гпх при большом п в своей массе взаимно погашаются. Поэтому, хотя сами величины Хп случайны, их среднее арифметическое значение при достаточно большом п практически уже не случайно и близко к гпх • Таким образом, если МО гпх С В Хп заранее неизвестно, то, согласно теореме 13.5, его можно вычислить с любой «степенью точности» с помощью среднего арифметического А 1 П Yn = — ^2 Xk • Но при этом встает вопрос: в каком смысле понимать п к=1 точность приближения Yn « mx ? Ответ на этот вопрос будет дан в следующем параграфе. Рассмотрим опыты, проводимые по схеме Бернулли, в результате которых событие А («успех») происходит с вероятностью р = Р(-А). Рассмотрим частоту «успехов» Wn(A) = М/п, где М есть число «успехов» при п испытаниях. Случайная величина М имеет бино- биномиальное распределение Bi(n;p). Теорема 13.6. {Теорема Бернулли, усиленный вариант). Ча- Частота «успехов» сходится почти наверное к вероятности «успеха», т.е. Wn(A) ^^ Р(А)=р. Доказательство. Так как М имеет биномиальное распреде- распределение, то частоту успехов Wn = М/п можно представить в виде усредненной суммы независимых одинаково распределенных СВ Х^ , к = 1,п, имеющих распределение Бернулли, со значениями х^ = О или Xk = 1 • Причем P{Xk = 1} = р, P{Xk = 0} = q. Поэтому ^ ^ =p, D[Xk]=pq, fe = l,2,... Тогда по теореме 13.5, так как выполнено условие тх = р < сю, получаем М/п —'—^ р.
138 СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ [ГЛ. IV Замечание 13.5. Самому Якову Бернулли принадлежит до- р казательство более слабого утверждения, что Wn(A) > Р(^) • Теорема Бернулли объясняет смысл свойства устойчивости частоты Wn(A) = М/п, которое мы ранее принимали как экспериментальный факт. Таким образом, теорема Бернулли является «переходным мо- мостиком» от теории вероятностей к ее приложениям. 13.3. Типовые задачи. Задача 13.1. Суточный расход электроэнергии для личных нужд в населенном пункте составляет в среднем 4000 кВт • ч. Оценить вероятность того, что в ближайшие сутки расход электроэнергии в этом населенном пункте не превысит 10 000 кВт • ч. Решение. Пусть случайная величина X — расход электроэнер- электроэнергии в течение суток. По условию М[Х] = 4000. Поскольку СВ X неотрицательна, то, применяя неравенство Чебышева для г = 1, получаем, Р{Х >е}^ Р{Х ^е}$ Таким образом, Р{Х > 10 000} 4000 = 0,4. 10 000 Следовательно, Р{Х ^ 10 000} = 1 - V{X > 10 000} ^ 0,6. Ответ. Оцениваемая вероятность не меньше 0,6. Задача 13.2. Некоторый период времени на бирже сохранялся относительно стабильный курс валюты. На основании данных бирже- биржевой статистики за этот период была составлена следующая таблица возможных значений изменения курса валют: Таблица 13.1 Возможное изменение курса, % Вероятность изменения -1 0,1 -0,5 0,3 0 0,5 0,5 0,05 1 0,05 С помощью неравенства Чебышева оценить вероятность того, что произойдет изменение курса валюты не больше чем на 0,6%. Р е ш е н и е. Пусть СВ X — изменение курса валюты (в процентах). Требуется оценить вероятность: Р{|Х| < 0,6}. Воспользуемся для этого неравенством Чебышева: Р{|Х| < 0,6} = 1 - Р{|Х| ^ 0,6} ^ 1 - М[Х2 @,6J
13] ЗАКОН БОЛЬШИХ ЧИСЕЛ 139 Чтобы вычислить М[Х2] , построим ряд распределения СВ X2 (см. табл. 13.2). Тогда Таблица 13.2 М[Х2} = 0,25 • 0,35 + 1 • 0,15 = 0,2375. Таким образом, имеем X2 р 0 0,5 0,25 0,35 1 0,15 Заметим, что молено вычислить точное значение этой вероятности, так как нам известен ряд распределения СВ X. Действительно, Р{|Х| < 0,6} = 1 -Р({Х = -1} + {Х = 1}\ =1- 0,1 - 0,05 = 0,85. Отметим, что получаемая с помощью неравенства Чебышева оценка оказывается весьма грубой. Ответ. Нижняя граница оценки вероятности равна 0,34, а истинное значение вероятности равно 0,85. Задача 13.3. Задана последовательность независимых СВ Хъ Х2, • • • , Хп,... , причем ряд распределения СВ Хп представ- Таблица 13.3 лен табл. 13.3. Применим ли к этой последовательности закон больших чисел? Решение. Проверим, выполняются ли условия теоремы Чебыше- Чебышева. Для этого найдем дисперсию СВ Хп . Очевидно, что математиче- математическое ожидание Хп равно 0, поэтому хп р — у/п 1/Bп) 0 1 - 1/гс у/п 1/Bп) Таким образом, дисперсии случайных величин Хп, п = 1,2,... , ограничены в совокупности константой с = 1. Следовательно, со- согласно теореме Чебышева, к последовательности Xl, X2,... , Хп,... применим ЗБЧ. О т в е т. К последовательности Х\, Х2,... , Хп,... применим ЗБЧ. Задача 13.4. Вероятность того, что при опускании одного жетона приемник игрального автомата сработает правильно, равна 0,95. Найти минимальное число жетонов, при опускании которых в игральный автомат, частота правильной работы автомата была бы заключена в границах от 0,93 до 0,97 включительно с вероятностью не менее 0,93. Применить неравенство Чебышева. Решение. Пусть случайная величина Х{ принимает значение 0, если приемник игрального автомата сработает неправильно при
140 СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ [ГЛ. IV г -м опускании жетона, и 1, если при i -м опускании жетона приемник игрального автомата сработает правильно, г = 1, п. Ряд распределе- распределения такой СВ Xi, при любом г = 1, п, дан в табл. 13.4. Для распределения Бернулли M[Xi] = 0,95, T>[Xi] = 0,05 • 0,95 = 0,0475. Обозначим частоту правильной работы игрального автомата Wn. -. п Тогда Wn = — ^2 Xi. Считая случайные Таблица 13.4 п i=1 величины Xi,..., Хп независимыми, полу- получаем -а Xi р 0 0,05 1 0,95 1=1 Искомую вероятность можно записать как Р{0,93 ^ Wn ^ 0,97} = Р{0,93 - M[Wn] ^ ^ wn - M[wn] <: 0,97 - M[wn}} = P{\wn - M[wn}\ <: 0,02}. По неравенству Чебышева получаем Следовательно, v{\wn - M[wn}\ <: 0,02} = 1 - v{\wn - M[wn}\ > 0,02} ^ 1 - 118,75 Таким образом, искомая вероятность будет не менее 0,93, если будет выполнено неравенство о,93. Разреп1ая это неравенство, получим . 118,75 п ^ — ^ 0,07 = 1696,4. Ответ. Используя неравенство Чебышева, получаем оценку ми- минимального числа жетонов, равную 1697 жетонам.
§ 14] ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 141 § 14. Центральная предельная теорема 14.1. Сходимость нормированной суммы независимых СВ. Рассмотрим нормированную сумму Zn независимых СВ Х&, к = 1, п : Zn = j- (Е Хк -М[± Хк]) = f Е№ - тк), где по свойству 4)М [X] имеет место соотношение так как а\ = D[X&], т& = М[Х^]. Так как Zn является нормиро- нормированной СВ, то по свойству Ъ)гпх M[Zn] = 0, D[Zn] = 1. Изучим поведение последовательности СВ Zn при п —)> оо. Определение 14.1. Будем говорить, что к последовательности {Хп} , п = 1,2,... , независимых СВ применима центральная пре- предельная теорема (ЦПТ), если последовательность СВ Zn сходится по распределению к СВ U, имеющей стандартное нормальное распре- деление, U ~ N@; 1), т. е. Zn > U. Замечание 14.1. Как отмечалось выше, закон больших чи- чисел — это, по сути, свойство последовательности независимых СВ Хп (см. замечание 13.4), которое выполняется при определенных усло- условиях. Аналогичную интерпретацию имеет и центральная предельная теорема. Название «центральная предельная теорема», на наш взгляд, не очень точное, так как по смыслу — это свойство, а не теорема. Но так как в литературе это понятие закрепилось, то и мы будем его придерживаться. Фундаментальная роль ЦПТ в теории вероятностей состоит в том, что при весьма общих предположениях сумма большо- большого числа независимых (относительно малых) СВ удовлетворительно описывается нормальным законом. Этим фактом и объясняется очень широкое распространение нормального закона на практике. Определение 14.2. Будем говорить, что последовательность {Хп} , п = 1, 2,... , независимых СВ удовлетворяет условию Ляпуно- Ляпунова, если lim ^ EM[|Xfc-mfe|3]=0.
142 СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ [ГЛ. IV Поясним смысл условия Ляпунова. Рассмотрим для произвольного S > 0 случайные события Ак = {\Хк — rrik\/sn ^ 5} , к = 1,п. Тогда по свойству 7)Р получаем f max \Xk - mk\ > Л = p(? Ak) ^ ? fc=l теор. 13.1 ? = ?п?, Г = 3 По условию Ляпунова последнее выражение стремится к нулю при п —ь оо. Таким образом, все слагаемые в нормированной сумме Zn равномерно малы в том смысле, что вероятность хотя бы одного из них превзойти величину 8 > 0 стремится к нулю при возрастании числа слагаемых. Теорема 14.1. (Теорема Ляпунова). Если последовательность {Хп} , п = 1, 2,... , независимых СВ удовлетворяет условию Ляпу- Ляпунова и СВ Хп, ее образующие, имеют конечные МО и дисперсии, т. е. тп < оо, сг^ < оо, то к {Хп} применима центральная предельная теорема. Доказательство. Пусть si = k=l ?„ = — ? Xfc, где а^ = D[Xk], X= Xk - m. Sn fe=i Найдем характеристическую функцию gk{i) СВ Хк ? учитывая, что о о г2 = -1 и согласно свойствам 2) и 5) mj : М[(ХкJ] = сг^ , М[Х&] = 0. Имеем По формуле Тейлора = М 1 + itXk +- где для остаточного члена Rk(i) справедлива оценка Тогда для С В Zn характеристическая функция будет иметь следую-
14] ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 143 щий вид: gZn(t) = M[exp{itZn}} = М[ехр{г* : = 1 к=1 СВ Хк независимы k=l Подставляя выражение для gk{t/sn), получаем Поэтому Sn Но согласно полученной оценке для Rk(t/sn) и по условию Ляпунова остаточный член в разложении \ngzn (i) стремится к нулю. Таким об- образом, заключаем, что \ngZn(t) —> — t2/2 при п —> оо . Следовательно, gZn(t) ->> exp{-t2/2} при оо. Но gu(t) = exp{—t2/2} является характеристической функцией для СВ U, имеющей нормальное рас- распределение N@;l). Характеристическая функция однозначно опре- р деляет закон распределения. Поэтому Zn > U ~ N@; 1). Пример 14.1. Рассмотрим последовательность {Хп}, п = = 1,2,... , независимых одинаково распределенных СВ Хп с конечными МО, дисперсией и абсолютным третьим моментом. Тогда -Ю. Таким образом, условие Ляпунова выполнено. Поэтому к последо- последовательности независимых одинаково распределенных СВ в данном случае применима ЦПТ. Замечание 14.2. Отметим, что существуют и другие условия, отличные от условия Ляпунова, при которых к последовательности СВ применима ЦПТ.
144 СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ [ГЛ. IV 14.2. Сходимость частоты. Рассмотрим частоту «успехов» д Wn(A) = М/п в серии из п последовательных независимых испыта- испытаний в схеме Бернулли. При доказательстве теоремы 13.6 (Бернулли) показано, что частоту успехов можно представить в виде суммы Wn(A) = — = - JT Хк, где М[Хк] = р, Т>[Хк] = pq. Тогда по п п к=1 свойствам 1)М [X] и 4)М [X] получаем M[Wn(A)} = - JT M[Xk] = р, B[Wn(A)} = \ JT Т>[Хк] = ^ . п k=i n k=i n Рассмотрим нормированную частоту успешных испытаний Так как согласно свойству 2)Bi(n;p) выполняется М[М] = пр, * D [М] = npq, то Wn можно рассматривать также как нормированное число успешных испытаний. Теорема 14.2. (Теорема Муавра-Лапласа). Последователь- Последовательность {Wn} 5 п = 1?2,..., нормированных частот «успехов» сходится по распределению к нормальной СВ U ~ N@; 1). Доказательство. Проверим условие Ляпунова. СВ Xk , k = = 1,2,... , независимы и одинаково распределены, а именно: Хк принимают значения хо = 1, х\ = 0 с вероятностями V{Xk = 1} = р, V{Xk = 0} = q. Поэтому в данном случае s2nu JT ЩХк] = n2D[Wg = npq, k=l и, кроме того, М[\Хк - М[Хк}\3} = р\х0 - М[Хк}\3 + q\Xl - М[Хк}\3 = qp(p поэтому 2 + q2) к=1 к=1 /npq Последнее выражение стремится к нулю при п —)> оо, т. е. условие Ляпунова выполняется. Следовательно, к последовательности {Хп} , п = 1,2,... , применима ЦПТ, т. е. Zn U. Но A 1 4=1 s^ = npq, mk = p, к=1 п
§ 14] ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 145 Замечание 14.3. Попутно мы доказали, что к последователь- последовательности независимых СВ Xi ~ Bi(l;p), п = 1,2,... применима ЦПТ. * р В соответствии с теоремой Муавра-Лапласа Wn > U •> т- е- * * при больших п можно считать, что Wn ~ U • Но Wn = (Wn — — p)\/n/pq, откуда следует, что Wn = \/pq/n Wn +Р- Таким образом, при больших п в первом приближении можно принять, что частота Wn является нормально распределенной СВ Wn ~ ~ \/pq/nU + р с параметрами M[Wn] = р, D[Wn] = pq/n , т. е. можно приближенно считать, что распределение Wn является нормальным. * Поскольку Wn— {М — пр)/\jnpq, то М ж y/pqnU + np и мож- можно приближенно считать, что распределение СВ М является нор- нормальным. Таким образом, мы получаем локальную теорему Муавра- Лапласа, в соответствии с которой т-» г л /г п 1 Г (к — пр) Р{М = к} « у ехр < - ^ ^L лу2тгпрд [ 2npg Кроме того, вероятность Р{/ ^ М ^ к} мож:ет быть легко оценена согласно интегральной теореме Муавра-Лапласа: к — пр\ -г ( I — пр Г - Фо где Фо(ж) — функция Лапласа. Напомним, что СВ М имеет биномиальное распределение, вероят- вероятности Рп{к) для которой сложно вычислять при больших п . Поэтому при больших п для оценки соответствующих вероятностей удобно пользоваться локальной (интегральной) теоремой Муавра—Лапласа. Если п велико, а р мало, то в схеме Бернулли можно получить другую приближенную оценку для Р{/ ^ М ^ к} . Согласно теоре- теореме 6.1 (Пуассона) при условии пр = а > 0 биномиальное распределение сходится по распределению при п —> оо к распределению Пуассона, т. е. Р{М = к} = Cknpkqn~k -)¦ ?е-°, и следовательно, Таким образом, в схеме Бернулли могут быть использованы две аппроксимации. 10 Кибзун А.И. и др.
146 СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ [ГЛ. IV Пусть СВ X r^j Bi(n;p), тогда для вычисления соответствующих вероятностей молено пользоваться аппроксимациями, описанными в следующей таблице: Таблица 14.1 Приближение Пуассона Муавра-Лапласа Рп(к) (пр)к _пр к\ Г {к - прJ \ ехр <^ - — > л/2тгпрд J2Pn(i) i=l *(nPy g_np фо(к-пр) *Al-nv\ \ -Jrvpq ) \Vnpq J Погреп1ности этих приближений даны в табл. 14.2. Таблица 14.2 Приближение Пуассона Муавра-Лапласа Погрешность 2 пр ^fnpq 14.3. Типовые задачи. Задача 14.1. Согласно данным статистической службы области 5,5% трудоспособного населения составляют безработные. Оценить вероятность того, что в случайно отобранной группе из 1000 трудо- трудоспособных доля безработных будет заключена в границах от 0,045 до 0,065. Решить задачу с помощью неравенства Чебышева и теоремы Муавра—Лапласа. Объяснить различие в результатах. Решение. Пусть СВ Х{ принимает значение 1, если г-ж выбран- выбранный человек — безработный, и значение 0 — в противном случае; г = 1, 1000. Согласно определению, СВ Х{ ~ Bi(l; 0,055), М[Х{] = = р = 0,055, D[JQ] = рA — р) = 0,0519. Доля безработных может быть представлена случайной величиной 1000 М = 1000 Согласно свойству 2)Bi(n;p) М[М] =р = 0,055, D[M] = рA - р) = 5,19 • ПГ5.
§ 14] ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 147 Теперь необходимо оценить вероятность Р{0,045 ^ М ^ 0,065}. Проведем очевидные преобразования: Р{0,045 ^ М ^ 0,065} = Р{0,045 - М[М] ^ М - М[М] ^ ^ 0,065 - М[М]} = Р{|М - М[М}\ <: 0,01}. Согласно неравенству Чебышева, имеем 1 - Р{|М - М[М}\ ^ 0,01} ^ 1 - =^ = 1 - 0,519 = 0,481. Согласно интегральной теореме Муавра-Лапласа, имеем Р{0,045 ^ М ^ 0,065} = _р / 0,045 -М[М] < М - М[М] < 0,065 - М[М] \ _ 0,01 М - ЮООр 0,01 " 0,72-Ю-2 ^ ^lOOOp(l-p) ^ 0,72 . 10~2 Ответ. Оценка нижней границы вероятности, полученная с помощью неравенства Чебышева, равна 0,481. Оценка, полученная с помощью теоремы Муавра-Лапласа, равна 0,8164. Задача 14.2. Вероятность того, что при опускании одного жетона приемник игрального автомата сработает правильно, равна 0,95. Найти минимальное число жетонов, такое, чтобы при опускании их в игральный автомат, частота правильной работы автомата была бы заключена в границах от 0,93 до 0,97 включительно с вероятностью не менее 0,93. Уточнить полученную в задаче 13.4 оценку с помощью теоремы Муавра-Лапласа. Решение. Используя результаты решения задачи 13.4, искомую вероятность можно записать как Р{0,93 ^ Wn <: 0,97} = Р{0,93 - M[Wn] ^ Wn - M[Wn] <: <: 0,97 - M[Wn}} = P{\Wn - М[ИУ I ^ 0,02}, где M[Wn] = 0,95, B[Wn] = 0,0475/n. 10*
148 СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ [ГЛ. IV Согласно интегральной теореме Муавра—Лапласа Р{0,93 ^ Wn ^ 0,97} = ^] < Wn - M[Wn] < 0,97-M[Wn} (o,93-M[Wn]\ = /ЩЩ ) Ч ) = Ф0(9,1766 • 10~2Vn) - Ф0(-9,1766 = 2Ф0(9,1766- 10л/п). Выполнение условия Р{0,93 ^ Wn ^ 0,97} ^ 0,93 означает, что Воспользовавшись таблицей для функции Лапласа, получим 9,1766 • 10v^ ^ 1,8119, или п>( ^"V ) Ответ. Оценка минимального числа лсетонов, полученная с помощью теоремы Муавра—Лапласа, равна 390 жетонам. Задача 14.3. Вероятность поражения мишени при одном вы- выстреле равна 0,75. Найти вероятность того, что при 200 выстрелах мишень будет поражена: а) 160 раз; б) не менее 140 раз. Решение, а) В данном случае опыт проводится по схеме Бернул- ли. Здесь один опыт Бернулли — один выстрел по мишени; «успех» — поражение мишени; вероятность «успеха» р = 0,75; количество опы- опытов Бернулли п = 200. Точное значение вероятности того, что при 200 выстрелах мишень будет поражена ровно 160 раз, вычисляется по формуле Бернулли: Р2оо{А; = 160} = С21060°@,75I60@,25L0 = 1.7346 • Ю-2. б) Точное значение вероятности того, что при 200 выстрелах мишень будет поражена не менее 140 раз, соответственно равно: 200 200 Р200{к ^ 140} = J2 p2oo{fc = i} = J2 С|00@,75)*@,25J0°-г = г=140 г=140 200 9ПП, 200-' « 0,95461.
§ 15] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 149 При вычислении этих вероятностей можно также пользоваться аппроксимацией Муавра—Лапласа (см. далее). а) Приближенное значение вероятности того, что при 200 выстре- выстрелах мишень будет поражена ровно 160 раз, вычисляется с помощью локальной теоремы Муавра—Лапласа: Р2оо{к = 160} р б) Приближенное значение вероятности того, что при 200 выстре- выстрелах мишень будет поражена не менее 140 раз, вычисляется с помощью интегральной теоремы Муавра-Лапласа: Р2оо{к ^ 140} = Р2оо{14О ^ к ^ 200} « , f 200- 200 • 0,75 \ , / 140 - 200 • 0,75 V- 0,75-0,25 / \ V200 • 0,75 • 0,25 Воспользовавшись таблицами для функции Лапласа, получим Р2оо{к ^ 140} « 0,94876. Ответ, а) Р2оо{к = 160} « 1,7346 • 10~2 ; б) Р2оо{к ^ 140} & 0,95461. § 15. Задачи для самостоятельного регпения 1. Количество воды, необходимое в течение суток предприятию для технических нужд, является случайной величиной, математиче- математическое ожидание которой равно 125 м3 . Оценить вероятность того, что в ближайшие сутки расход воды на предприятии будет меньше 500 м 3 . 2. Опыт работы рекламной компании показывает, что адресная реклама приводит к заявке в одном из 20 случаев. Компания разосла- разослала 1000 рекламных проспектов. Покажите, что с помощью неравен- неравенства Чебышева нельзя оценить вероятность того, что число заявок окажется больнее 30 и меньше 60. Измените верхнюю границу так, чтобы применение неравенства Чебышева стало возможным, и оцени- оцените соответствующую вероятность. Уточните полученный результат с помощью теоремы Муавра—Лапласа.
р —Ъп 1/Bп2) 0 1 - 1/п2 Ъп 1/Bп2) 150 СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ [ГЛ. IV 3. Размер выплаты каждому клиенту банка случаен. Средняя выплата одному клиенту составляет 5000 единиц, а среднеквадра- тическое отклонение — 2000 единиц. Выплаты отдельным клиентам независимы. Сколько должно быть наличных денег в банке, чтобы с вероятностью 0,95 денег хватило на обслуживание 60 клиентов? 4. Задана последовательность независимых случайных величин ХЬХ2,... ,ХП,... Ряд рас- Таблица 15.1 пределения СВ Хп имеет вид табл. 15.1. Проверить, приме- применим ли к этой последователь- последовательности ЗБЧ. 5. Опыт работы страховой компании показывает, что страховой случай приходится примерно на каждый восьмой договор. Оценить с помощью неравенства Чебышева необходимое количество п догово- договоров, которые нужно заключить, чтобы с вероятностью не меньшей, чем 0,8, можно было утверждать, что частота страховых случаев от- отклонится от вероятности не более чем на 0,01 по абсолютной величине. Уточнить результат с помощью теоремы Муавра—Лапласа. 6. Торговая фирма продала 1000 единиц товара, получая при этом прибыль по 50 рублей с каждой единицы. Гарантийный ремонт фирма осуществляет своими силами и терпит при этом убыток в 200 рублей. Найти границы минимального по длине интервала, внутри которого с вероятностью 0,9545 заключен доход фирмы, если в среднем гарантийный ремонт приходится делать в каждом десятом случае. 7. Скорость ветра в течение суток в данной местности является случайной величиной, математическое ожидание которой равно 6 м/с. Оценить вероятность р того, что в ближайшие сутки скорость ветра в этой местности будет не меньше 16 м/с. 8. Дисперсия отдельного результата измерения случайной величи- величины не превосходит 3. Производится 1000 независимых измерений этой величины. Какие границы можно гарантировать с вероятностью 0,95 для результата измерения среднего арифметического этих величин? Дать ответ с помощью неравенства Чебышева. 9. Среднее изменение курса акций компании в течение одних биржевых торгов составило 1%, а среднеквадратическое отклонение оценивается как 0,5%. Оценить вероятность р того, что на ближай- ближайших торгах курс изменится менее чем на 2% . 10. Задана последовательность независимых случайных величин Xi,X2,... ,ХП,... , где Хп ~ R(—1/п; 1/п). Применим ли к этой последовательности закон больших чисел?
§ 15] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 151 11. Предположим, что среднее время опоздания студента на лекцию составляет одну минуту. Оценить вероятность р того, что студент опоздает на лекцию не менее чем на пять минут. 12. Предположим, что в условиях предыдущей задачи дополни- дополнительно известно, что среднеквадратическое отклонение времени опоз- опоздания студента на лекцию составляет также одну минуту. Оценить минимальное значение ж, при котором Р{Х ^ х} ^ р, где X — случайное время опоздания студента на лекцию, р = 0,1— заданный уровень вероятности. 13. В среднем каждая 30-я видеокассета, записываемая на студии, оказывается бракованной. Оценить вероятность р того, что из 900 кассет, записанных на студии, число бракованных окажется в преде- пределах от 25 до 35. Решить задачу с помощью неравенства Чебышева и интегральной теоремы Муавра—Лапласа. Сравнить полученные ре- результаты. 14. Какое минимальное число опытов п следует провести, чтобы с вероятностью 0,95 можно было утверждать, что частота появления события будет отличаться по абсолютной величине от его вероятности, равной 0,6, не более чем на 0,02? Ответ дать с помощью неравенства Чебышева и интегральной теоремы Муавра-Лапласа. Объяснить различие результатов. 15. Выход цыплят в инкубаторе составляет 75% от числа зало- заложенных яиц. Оценить вероятность р того, что из 1000 заложенных яиц вылупятся: а) ровно 750 цыплят; б") от 720 до 780 цыплят. 16. В среднем каждый 30-й телевизор, выпускаемый заводом, выходит из строя до окончания гарантийного срока. Оценить с помощью теоремы Муавра-Лапласа вероятность р того, что из 300 выпущенных заводом телевизоров не более 10 поступит в гарантийный ремонт. 17. Пусть в условии задачи 3 известно, что в начале операцион- операционного дня в банке было 350 000 единиц наличных денег. Каков будет гарантированный с вероятностью 0,95 остаток п наличных денег в банке после выплаты всем 60 клиентам? 18. Цех завода выпускает шарики для подшипников. За смену производится 10 000 шариков. Вероятность того, что один шарик окажется дефектным, равна 0,05. Причины дефектов отдельных ша- шариков независимы. Продукция проходит контроль сразу после изго- изготовления, и дефектные шарики ссыпаются в бункер для переплавки. Определить, на какое количество шариков п должен быть рассчитан бункер, чтобы с вероятностью 0,99 он не оказался переполненным после смены.
ГЛАВА V МАТЕМАТИЧЕСКАЯ СТАТИСТИКА 16. Основные выборочные характеристики 16.1. Основные понятия. Математическая статистика — наука о математических методах, позволяющих по статистическим данным, например по реализациям случайной величины (СВ), постро- построить теоретико-вероятностную модель исследуемого явления. Задачи математической статистики являются, в некотором смысле, обратны- обратными к задачам теории вероятностей. Центральным понятием матема- математической статистики является выборка. Определение 16.1. Однородной выборкой (выборкой) объе- объема п при п ^ 1 называется случайный вектор Zn = col(Xi,... ... , Хп), компоненты которого Х{, г = 1, п, называемые элементами выборки, являются независимыми СВ с одной и той же функцией рас- распределения F(x). Будем говорить, что выборка Zn соответствует функции распределения F(x). Определение 16.2. Реализацией выборки называется неслу- неслучайный вектор zn = col(a?i,... , хп), компонентами которого являются реализации соответствующих элементов выборки Xi, г = 1,п. Из определений 16.1 и 16.2 вытекает, что реализацию выборки zn молено также рассматривать как последовательность ж1?... , хп из п реализаций одной и той же СВ X, полученных в серии из п неза- независимых одинаковых опытов, проводимых в одинаковых условиях. Поэтому можно говорить, что выборка Zn порождена наблюдаемой СВ X, имеющей распределение Fx{x) = F(x). Определение 16.3. Если компоненты вектора Zn независимы, но их распределения Fi(xi),... , Fn(xn) различны, то такую выборку называют неоднородной. Определение 16.4. Множество S всех реализаций выбор- выборки Zn называется выборочным пространством. Выборочное пространство может быть всем п -мерным евклидо- евклидовым пространством ]Rn или его частью, если СВ X непрерывна, а
§ 16] ОСНОВНЫЕ ВЫБОРОЧНЫЕ ХАРАКТЕРИСТИКИ 153 также может состоять из конечного или счетного числа точек из Мп , если СВ X дискретна. На практике при исследовании конкретного эксперимента распре- распределения F\(x\),... ,Fn{xn) СВ Xi,... , Хп редко бывают известны полностью. Часто априори (до опыта) можно лишь утверждать, что распределение Fzn(zn) = F\(x\) • ... • Fn(xn) случайного вектора Zn принадлежит некоторому классу (семейству) Т. Определение 16.5. Пара (S^J7) называется статистической моделью описания серии опытов, порождающих выборку Zn . Определение 16.6. Если распределения Fzn(zn,6) из клас- класса Т определены с точностью до некоторого векторного параметра в Е G С Ms , то такая статистическая модель называется параметри- параметрической и обозначается (S#, Fzn (zn, в)), в Е О С Ms . В некоторых случаях выборочное пространство может не зависеть от неизвестного параметра в распределения Fzn(zn,6). В зависимости от вида статистической модели в математической статистике формулируются соответствующие задачи по обработке информации, содержащейся в выборке. Определение 16.7. СВ Z = ip(Zn), где ip(zn) —произвольная функция, определенная на выборочном пространстве S и не завися- зависящая от распределения Fzn(zni6), называется статистикой. 16.2. Вариационный ряд. Определение 16.8. Упорядочим элементы реализации выбор- выборки #i,... ,жп по возрастанию: х^ ^ х^ ^ ... ^ х^ , где верхний индекс соответствует номеру элемента в упорядоченной последова- последовательности. Обозначим через Х^к' , к = 1,п, случайные величины, которые при каждой реализации zn выборки Zn принимают к-е (по верхнему номеру) значения х^ . Упорядоченную последовательность СВ Х^ ^ ... ^ Х^ называют вариационным рядом выборки. Определение 16.9. Элементы Х^ вариационного ряда назы- называются порядковыми статистиками, а крайние члены вариацион- вариационного ряда Х^1' , Х^п> — экстремальными порядковыми статисти- статистиками. Например, для к = 1 функция ip(zn) для статистики Х^ = (p(Zn) определяется следующим образом: tp(zn) = min {xk : к = 1, п } . Если однородная выборка Zn соответствует распределению F{x), то к-я порядковая статистика Х^к' имеет следующую функцию
154 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V распределения: F{k)(x) = Р {l« < х} = ± C^[F(x)Y[l - Р(х)]п~\ В частности, для к = 1 и к = п имеем FA)(x) = 1 - [1 - F(x)]n, F(n)(x) = [F(x)]n. Если функция распределения F{x) имеет плотность f(x), то поряд- порядковая статистика Х^ имеет следующую плотность распределения: Определение 16.10. Порядковая статистика X^npJ+1) с номе- номером [пр] + 1, где [ • ] — целая часть числа, называется выборочной квантилью уровня р. Если в некоторой окрестности точки хр плотность распределения f(x) CB X непрерывна вместе с её производной и, кроме того, f(xp) >0,то - Хр) J^-Щ -^U при п -+ оо, у) V ml р) где CB U имеет распределение N@; 1). Таким образом, при боль- больших п можно считать, что выборочная квантиль X^np]+1) близка к хр , и, более того, распределение статистики Х^71^^1' может быть аппроксимировано нормальным распределением N I xv\ —Ц77—\ 16.3. Выборочная функция распределения. Пусть серия из п испытаний проводится по схеме Бернулли, т. е. испытания проводятся независимо друг от друга и некоторое событие А при каждом испытании появляется с одной и той же вероятностью р = Р(-А). Пусть Мп(А) — случайное число появлений события А в этой серии, a Wn(A) = Мп(А)/п — частота события А в серии из п испытаний. Рассмотрим выборку Zn, порожденную СВ X с функцией распределения Fx(x). Определим для каждого х G М1 событие Ах = {X ^ ж}, для которого Р(АХ) = Fx(x). Тогда Мп(Ах) — случайное число элементов выборки Zn , не превосходящих х.
16] ОСНОВНЫЕ ВЫБОРОЧНЫЕ ХАРАКТЕРИСТИКИ 155 Определение 16.11. Частота Wn(Ax) события Ах , как функ- функция х Е 1R , называется выборочной (эмпирической) функцией рас- распределения СВ X и обозначается К (х) = Wn(Ax). Для каждого фиксированного х Е К1 СВ Fn(x) является статистикой, реализациями которой являются числа 0 , 1/п , 2/п , ... ... , п/п, и при этом к = Любая реализация Fn(x) выборочной функции Fn(x) является сту- ступенчатой функцией, характерный вид которой показан на рис. 16.1. В точках х^ < ... < х(п' , где х^к' — реализация порядковой стати- статистики Х^ , функция Fn(x) имеет скачки величиной 1/п и является непрерывной справа. 1 2/п- \/n V 0 {2) C) (я) X X ••• X X Рис. 16.1 Свойства Fn(x) 1) М -Рп(ж) = F(x), для любого х G М1 и любого п ^ 1; 2) sup з) м О при п —>• оо ; 4) lFn(x) — F(x) J I ydn(x) > U при п —>• оо , где СВ С/ имеет распределение N@; 1). Первые два свойства свидетельствуют о том, что при увеличении числа п испытаний происходит сближение выборочной функции рас- распределения Fn[x) с функцией распределения F[x) СВ X . Последние два свойства позволяют оценить скорость этого сближения в зависи- зависимости от объема п выборки Zn . Утверждение 2) называется тео- теоремой Гливенко-Кантелли, а утверждение 4) является следствием теоремы Муавра-Лапласа.
156 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V 16.4. Гистограмма. Рассмотрим процедуру группировки выбор- выборки. Для этого действительную ось Ш1 = (—оо, оо) разделим точками ао,... , Щ+1 на / + 1 непересекающийся полуинтервал (разряд) Ак = = [afc,afc_|_i), к = О,/, таким образом, что —оо = ао < а\ < ... ^ , щ ^ х^ . Обычно длина разрядов ... < оц < a/_|_i = +оо, а\ ^ Таблица 16.1 [ai,a2) Pi [ai-!,ai) Pi-i Ак , к = 1, / — 1, выбирается одина- одинаковой, т. е. равной hk = (сц — ol\)/A — — 1). Используя реализацию вари- вариационного ряда х^ < ... < а?(п) , для каждого к -го разряда Ак , к = = 1, / — 1, вычислим частоту попада- попадания элементов реализации выборки в этот разряд. Получаем рк = п^/п, где п^ — число элементов реализации выборки zn , попавших в к -й разряд. Если рассмотреть априорную выборку Zn и случайное число Nk элементов этой вы- выборки, попавших в к-й разряд, то получим набор случайных величин Рк = Nk/n. Определение 16.12. Последовательность пар (Ак,рк), к = = 1,/ —1, называется статистическим рядом, а его реализация (Ak,pk), k = 1, / — 1, представляется в виде табл. 16.1. Изобразим графически статистический ряд. Определение 16.13. На оси Ох отложим разряды и на них, как на основании, построим прямоугольники с высотой, равной pk/hk, к = 1,1 — 1. Тогда площадь каждого прямоугольника будет равна рк . Полученная фигура называется столбцовой диаграммой, а кусочно постоянная функция fn (x), образованная верхними гранями полученных прямоугольников, — гистограммой (рис. 16.2). Л(*) Р\ Ръ Pf-2 сц оц ал Рис. 16.2 При этом полагают f п(х) = 0 для всех х < а\ и х ^ щ , так как по = 0 и щ = 0. Пусть плотность распределения /(ж) непрерывна и ограничена, а количество разрядов 1п + 1 зависит от объема п выборки таким
§ 16] ОСНОВНЫЕ ВЫБОРОЧНЫЕ ХАРАКТЕРИСТИКИ 157 образом, что 1п —>• оо, но при этом п/1п —>• оо (например, можно выбрать 1п = с\ + С2 In п, где ci , С2 — некоторые положительные константы). Тогда выборочная плотность распределения fn(x), реа- реализациями которой служат гистограммы fn(x), сходится по вероят- ^ Р ности к плотности f(x) наблюдаемой СВ, т.е. fn(x) > f(x) при п —ь оо для любого жЕМ . Таким образом, при достаточно «мелком» разбиении отрезка [ai,aj] и при большом объеме выборки п высоты построенных прямоугольников можно принимать в качестве прибли- приближенных значений плотности f[x) в средних точках соответствующих интервалов. Из этого следует, что гистограмму можно рассматривать как статистический аналог плотности распределения наблюдаемой СВ X. Используя гистограмму, неизвестную плотность можно ап- аппроксимировать кусочно постоянной функцией. Но из математическо- математического анализа известно, что если функция является достаточно гладкой, то кусочно линейная аппроксимация оказывается, как правило, лучше кусочно постоянной. Определение 16.14. Сглаженную гистограмму в виде ломан- ломанной, у которой прямые линии последовательно соединяют середины верхних граней прямоугольников, образующих столбцовую диаграм- диаграмму, называют полигоном частот. 16.5. Выборочные моменты. Пусть имеется выборка Zn = = col(Xi,... ,Xn), которая порождена СВ X с функцией распреде- распределения Fx(x). Определение 16.15. Для выборки Zn объема п выборочными начальными и центральными моментами порядка г СВ X называ- называются следующие СВ: "r(n) = ^?W, Г =1,2,...; fc=l -?i(n))r, r = 2,3,... К^ 1 Определение 16.16. Выборочным средним и выборочной дис- дисперсией СВ X называются соответственно тх{п) = vx(п) = - 2^ Хк, п k=i ^ А А 1 П dx{n) = /22(» = - п k=i
158 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V В дальнейшем мы будем использовать сокращенные обозначения ) •> dx = d>x(n), если это не будет приводить к путанице. Пусть имеется также выборка Vn = col(Yi,... , 1^), порожденная СВ Y с функцией распределения Fy (у). Определение 16.17. Выборочным коэффициентом корреляции СВ X и Y называют ^2 - А к=1 гХу = Пусть существуют исследуемые моменты vr , fir . Тогда справед- справедливы следующие свойства. Свойства выборочных моментов 1) М [Я-(^)] = vr Для любого п ^ 1 и для всех г = 1, 2,... ; 2) Рг(п) —^^> z/r при п —>• оо для всех г = 1,2,... ; 3) fir(n) —^> //г при п —>• оо для всех г = 2, 3,... ; 4) D [mx] = dx/n, где dx = В[Х]; 5) М 6) (их — wix) ydx/n > U при п —^ оо, где СВ U имеет распределение N@; 1); 7) (dx ~ dx) I \/( ~ vl)ln —^ и ПРИ п -> °°' гДе СВ ^ имеет распределение N@; 1). Второе и третье свойства указывают, что с увеличением объема выборки выборочные моменты будут сколь угодно близки к соответ- соответствующим теоретическим моментам. Пример нахождения объема вы- выборки, гарантирующего в определенном смысле близость выборочной характеристики к ее истинному значению, приведен в § 23. Из первого свойства вытекает, что математические ожидания (МО) выборочных начальных моментов совпадают с соответствую- соответствующими значениями начальных моментов СВ X, т. е. в этом смысле обладают свойством «несмещенности». А МО выборочной дисперсии dx не совпадает с дисперсией dx СВ X, т. е. в этом смысле СВ dx является «смещенной» выборочной характеристикой dx • Поэтому часто вместо dx используют «исправленную» выборочную дисперсию sx = dx , для которой М [s~x] = dx •
16] ОСНОВНЫЕ ВЫБОРОЧНЫЕ ХАРАКТЕРИСТИКИ 159 16.6. Типовые задачи. Задача 16.1. В метеорологии принято характеризовать темпера- температуру месяца ее средним значением (среднее значение температуры месяца равно сумме температур всех дней данного месяца, деленной на число дней в этом месяце). В табл. 16.2 приведены значения средней температуры января в г. Саратове и г. Алатыре. Таблица 16.2 Год Саратов Алатырь Год Саратов Алатырь 1891 -19,2 -21,8 1899 -4,9 -7,4 1892 -14,8 -15,4 1911 -13,9 -15,1 1893 -19,6 -20,8 1912 -9,4 -14,4 1894 -11,1 -11,3 1913 -8,3 -11,1 1895 -9,4 -11,6 1914 -7,9 -10,5 1896 -16,9 -19,2 1915 -5,3 -7,2 1897 -13,7 -13,0 Требуется по данным реализациям найти: а) выборочное среднее и выборочную дисперсию средней температуры января в г. Саратове и г. Алатыре; б) выборочный коэффициент корреляции средней температуры января в г. Саратове и средней температуры января в г. Алатыре. Решение. Пусть СВ X — средняя температура января в г. Саратове, а СВ Y — средняя температура января в г. Алатыре. В таблице приведена реализация х\^... ,^1з выборки Xi,... ,Xi3, порожденной СВ X, и реализация yi,... , у\?> выборки Yi,... , Y13? порожденной СВ Y. Выборочное среднее fhx СВ X для данной реализации #i,... , Ж13 равно : -11,87, г=1 а выборочное среднее ту СВ Y равно 1 13 ту = — У^ Vi ~ —13,75. 13 ^ у ' г=1 Выборочная дисперсия dx СВ X для данной реализации (a?i,... ... , Ж13) равна 13 13 22,14, а выборочная дисперсия dy CB Y равна dv = ^ Е (У< ~ (-! i6 г=1 20,09.
160 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V Выборочный коэффициент корреляции СВ X и Y: - (-П,87)) (№- (-13,75)) -^А- J- 13^22Д4^20^9 -11,87, mF^-13,75, dx«22,14, ' 20,09, fX Ответ. ^0,95. Задача 16.2. В 1889-1890 гг. был измерен рост 1000 взрослых мужчин (рабочих московских фабрик). Результаты измерений пред- представлены в табл. 16.3 (данные взяты из [10]). По имеющимся наблю- наблюдениям требуется построить гисторамму. Таблица 16.3 рост [см] число мужчин рост [см] число мужчин рост [см] число мужчин 143-146 1 158-161 120 173-176 64 146-149 2 161-164 180 176-179 28 149-152 8 164-167 201 179-182 10 152-155 26 167-170 170 182-185 3 155-158 65 170-173 120 185-188 1 Решение. Пусть СВ X — рост взрослого мужчины. Тогда приведенная таблица содержит реализацию выборки Xi,... , Хюоси порожденной СВ X. В данной задаче группировка выборки уже проведена: действи- действительная ось К1 разделена на 17 полуинтервалов Д&, к = 0,16, где До = (—оо,143), Aiq = [188, +оо), а остальные 15 полуинтервалов имеют одинаковую длину h = 3. Во второй строке таблицы приведены числа П&, к = 1,15, равные количеству элементов выборки, попавших в к -й разряд. Вычислим частоту попадания в к -й полуинтервал, к = = 1,15: рк = П&/1000, и построим реализацию статистического ряда (см. табл. 16.4). Таблица 16.4 Ак Рк Ак Рк Ак Рк 143-146 0,0003 158-161 0,04 173-176 0,021 146-149 0,0006 161-164 0,06 176-179 0,009 149-152 0,002 164-167 0,067 179-182 0,003 152-155 0,008 167-170 0,057 182-185 0,001 155-158 0,022 170-173 0,04 185-188 0,0003 Теперь на оси ОХ отложим разряды Д&, к = 1,15, и на них, как на основании, построим прямоугольники высотой рк (рис. 16.3).
17] ОСНОВНЫЕ РАСПРЕДЕЛЕНИЯ В СТАТИСТИКЕ 161 0,067 0 оо сю оо Рис. 16.3 § 17. Основные распределения в статистике 17.1. Распределение хи-квадрат. Определение 17.1. Пусть Uk, к = 1,п, — набор из п независимых нормально распределенных СВ, ?/& ~ N@; 1). Тогда СВ к=1 имеет распределение хи-квадрат (х2 -распределение) с п степенями свободы, что обозначается как Хп ~ %2 (п). Свойства распределения хи-квадрат Х2(п) 1) СВ Хп имеет следующую плотность распределения: I П 0, х^О, + ОО где Г(?тг) = yrn~1e~v dy — гамма-функция. Графики функций о f(x,n) (рис. 17.1), называемые кривыми Пирсона, асимметричны и начиная с п > 2 имеют один максимум в точке х = п — 2. 2) Характеристическая функция С В Хп имеет вид + ОО g(t,n)= f eite/(a;,n)cfa;=(l-2ii)-n/2. 11 Кибзун А.И. и др.
162 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V 3) СВ Хп rsj ^2(n) имеет следующие моменты: М[Хп]=щ 4) Сумма любого числа т независимых СВ Xk, к = 1,га, имеющих распределение хи-квадрат с п^ степенями свободы, имеет л Тп распределение хи-квадрат с п = ^ n& степенями свободы. к=1 i 0,5 0 IW = 1 Ки=2 — ' — чи>2 X Рис. 17.1 5) Распределение хи-квадрат обладает свойством асимптотиче- асимптотической нормальности: Хп — п F ТТ у и при п —у оо, где СВ U имеет распределение N@; 1). Это означает, что при достаточно большом объеме п выборки молено приближенно считать Хп ~ N(n; 2n). Фактически эта аппроксимация имеет место уже при п ^ 30. Пример 17.1. Приведем пример, в котором возникает распре- распределение хи-квадрат. Пусть выборка Zn соответствует нормальному распределению N(m; a2). Рассмотрим выборочную дисперсию где fhx — выборочное среднее. Тогда СВ Yn = ndx / о2 имеет распределение Х2(п ~ 1) и не зависит от fhx • 17.2. Распределение Стьюдента. Определение 17.2. Пусть U и Хп — независимые СВ, U ~ ~ N@; 1), Хп ~ Х2(п) • Тогда СВ Тп = U ^/Хп/п имеет распреде- распределение Стьюдента с п степенями свободы, что обозначают как Тп ~
17] ОСНОВНЫЕ РАСПРЕДЕЛЕНИЯ В СТАТИСТИКЕ 163 Свойства распределения Стьюдента S(n) 1) СВ Тп имеет плотность распределения Графики плотностей f(t,n) (рис. 17.2), называемые кривыми Стъюдента, симметричны при всех п = 1,2,... относительно оси ординат. -1 О Рис. 17.2 2) СВ Тп имеет МО, равное М[ТП] = 0 для всех п ^ 2, и дисперсию D[Tn] = nj(n — 2) при п > 2. При п = 2 дисперсия D[Tn] = +oo. 3) При п = 1 распределение Стьюдента совпадает с распределени- распределением Коши, плотность которого равна Но, как известно, математическое ожидание и дисперсия СВ Т\, имеющей распределение Копей, не существуют, так как бесконечен предел lim /(a) = +оо, а—)-оо ч А 1 ? 4) Мож:но показать, что при п —>- оо распределение S (п) асимпто- тически нормально, т. е. Тп > U, где СВ U имеет распределение N@; 1). При п ^ 30 распределение Стьюдента S (п) практически не отличается от N@; 1). Пример 17.2. Приведем пример, в котором встречается распре- распределение Стьюдента. Пусть выборка Zn соответствует нормальному распределению N(m; а2). Пусть fhx — выборочное среднее, a dx —
164 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V выборочная дисперсия. Тогда СВ Тп = л/п- 1 771Х — 771 имеет распределение Стьюдента S (п — 1). 17.3. Распределение Фишера. Определение 17.3. Пусть независимые СВ Хп и Хш имеют распределения хи-квадрат соответственно спит степенями свобо- свободы. Тогда СВ Vn т = ——— имеет распределение Фишера спит Хт/т степенями свободы, что записывают как Ущт ~ F (п; га). Свойства распределения Фишера F(n;ra) 1) СВ Vn^m имеет плотность /(г>,п,га) = 0 при v ^ 0 и f(v,n,m) — /n+m\ \ 2 V 2 / п2 га 2 Gтг + при г> > 0. Графики функции f(v,n,m), называемые кривыми Фишера, асим- асимметричны и при п > 2 достигают максимальных значений в точках (п-2)ш ^ g. v = т -г- •> близких к единице при больших значениях тип. (га + 2)п Типовой вид кривой Фишера приведен на рис. 17.3. k 1 0 \ (n-2)m n(m+2) X Рис. 17.3 2) СВ Уп^ш имеет следующие моменты: п га 771-2 2га2(га + п- 2) при ттг > 2, при ттг > 4. Пример 17.3. Пусть Zn = col(Xi,... , Хп) — выборка объема п, порожденная СВ X с нормальным распределением N(rax;cr2), a
§ 18] ТОЧЕЧНЫЕ ОЦЕНКИ 165 Wn = col(Yi,... ,Ym) — выборка объема m, порожденная СВ Y с нормальным распределением N(my;a2), и СВ Zn и Wn независимы. Тогда СВ, образованная отношением исправленных выборочных дисперсий СВ X и Y, т. е. у * fc=i имеет распределение F (n — 1; ттг — 1). 18. Точечные оценки 18.1. Основные понятия. Определение 18.1. Параметром распределения О G В С 1R СВ X называется любая числовая характеристика этой СВ (мате- (математическое ожидание, дисперсия и т. п.) или любая константа, явно входящая в выражение для функции распределения. В общем случае будем предполагать, что параметр распределе- распределения в может быть векторным, т. е. в G G С Ms . В случае параметрической статистической модели (S#, Fzn(zni0)) таким параметром распределения может служить неизвестный вектор в G О С Ms , характеризующий распределение Fzn{zn, в). Пусть имеется выборка Zn = co1(Xl, ... ,Хп) с реализацией zn = Определение 18.2. Точечной [выборочной) оценкой неизвест- неизвестного параметра распределения в G О С Ms называется произвольная статистика 0(Zn), построенная по выборке Zn и принимающая зна- значения в множестве В. Замечание 18.1. Реализацию 0(zn) оценки 0(Zn) принимают, как правило, за приближенное значение неизвестного параметра в. Ясно, что существует много разных способов построения точечной оценки, которые учитывают тип статистической модели. Для пара- параметрической и непараметрической моделей эти способы могут быть различны. Рассмотрим некоторые свойства, которые характеризуют качество введенной оценки. Определение 18.3. Оценка 0(Zn) параметра в называется несмещенной, если ее МО равно в, т. е. М 0(^п) = в для любого 6»ев.
166 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V Определение 18.4. Оценка 0(Zn) параметра 0 называет- называется состоятельной, если она сходится по вероятности к 0, т. е. ^ Р 0(Zn) > 0 при п —>• оо для любого в G О. Определение 18.5. Оценка 0(Zn) параметра 0 называется сильно состоятельной, если она сходится почти наверное к в, т. е. 6(Zn) —'-Ч> в при п —> оо для любого О G О. Очевидно, что если оценка сильно состоятельная, то она является также состоятельной. Пример 18.1. Оценка 6i(Zn) = fhx неизвестного МО д\ = тх СВ X является несмещенной (по свойству 1) fhx ), а оценка 62(Zn) = = dx неизвестной дисперсии 02 = dx — смещенной, так как М \dx\ = dx (по свойству Б) fhx)' Оценка 6ъ{%п) — ^х является несмещенной оценкой dx по определению sx. Если существуют моменты тх, dx, то сильная состоятельность оценок fhx, dx гарантируется свойствами 2), 3) fhx • Свойствами состоятельности и несмещенности могут обладать сразу несколько оценок неизвестного параметра в. Определение 18.6. Несмещенная оценка 0*(Zn) скалярного параметра 0 называется эффективной, если D #*(^п) ^ D 0(^п) для всех несмещенных оценок 6(Zn) параметра 0, т.е. ее дисперсия минимальна по сравнению с дисперсиями других несмещенных оценок при одном и том же объеме п выборки Zn . Пример 18.2. Пусть СВ X имеет нормальное распределение N(mj; ах) с неизвестными параметрами в\ = тх , 02 = о~х . В этом случае выборочное среднее fhx является эффективной оценкой тх • В классе параметрических моделей (So,Fzn(zn,O)), О G О С С М , рассмотрим подкласс статистических моделей, удовлетворяю- удовлетворяющих некоторым естественным условиям регулярности. С этой целью введем следующие понятия. Определение 18.7. Функцией правдоподобия для неизвестного параметра О G О С Ms называется: в случае непрерывной наблюдае- наблюдаемой СВ X — плотность распределения L(znA,... ,ea) = fZn(zn,eu... ,ва)= f[fx(xk,Ou... A), где fx(x, вi,... , 6S) — плотность распределения СВ X, а в случае
§ 18] ТОЧЕЧНЫЕ ОЦЕНКИ 167 дискретной наблюдаемой СВ X — произведение вероятностей Л,... А), где px(%ki $ъ • • • 1 ®з) — вероятность события {X = Аналогично определяется функция правдоподобия L(zn,#i,... . ..,0S) при неоднородной выборке Zn = co1(Xl,... , Хп), когда СВ Хк , & = 1,п, по-прежнему независимы, но имеют различные плотности распределения fxk(xki $ъ • • • >0s)? зависящие от одного и того же набора неизвестных параметров 6\,... , 0S . Определение 18.8. Логарифмической функцией правдоподо- правдоподобия для неизвестного параметра в G В С Ms называется функция Определение 18.9. Параметрическая статистическая модель ($0, Fzn(zn,6)), в G В С М , называется регулярной, если выполня- выполняются следующие условия: 1) функция правдоподобия L(zn,0) > 0 для всех 0 G В и zn E Sq дифференцируема по параметру О G В; 2) для любого измеримого множества ^4 С S выполняется условие д_ дв А А Из условия 2) вытекает, в частности, что в случае регулярной моде- модели выборочное пространство So = S, т. е. не зависит от неизвестного параметра 0. Пример 18.3. Пусть выборка Zn соответствует равномерному распределению R@; Ь) с неизвестным параметром в = Ъ. В этом случае параметрическая статистическая модель (S#, Fzn(zn,6)) не является регулярной, так как выборочное пространство Sq опреде- определяется на отрезках [0,6], а следовательно, зависит от параметра Ъ. Определение 18.10. В случае регулярной статистической мо- модели E, FZn (г„, 0)), 0 G В С М1, величина дв называется информацией Фишера о параметре в G О, содержащейся в выборке Zn .
168 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V В случае регулярной модели (S,Fzn(zn,6)) для любой несмещен- несмещенной оценки 0(Zn) параметра О Е В С 1R справедливо неравенство Рао-Крамера D Это неравенство дает нижнюю границу для дисперсии несмещен- несмещенной оценки. Определение 18.11. Несмещенная оценка 0(Zn) параметра О Е О С К1 называется R-эффективной оценкой, если для этой оценки в неравенстве Рао-Крамера достигается равенство, т.е. D 0(Zn) = Если R -эффективная оценка существует, то она является также эффективной в смысле минимума дисперсии (см. определение 18.6). Способ построения R -эффективных оценок вытекает из критерия эффективности, состоящего в следующем. Оценка 0(Zn) параметра в является R -эффективной тогда и только тогда, когда 2i7 ч л_ A d]nf(Xk,0) Таблица 18.1 Модель N@;<4) N(mx;0) Bi(k;ff) П(в) 1п{в) п п кп 0A-0) п 0{Zn) шх=1-±Хг П г=1 гпх 1 ^ v к ~пк^Хг D[?(Zn)] ± п 2в2 п 0A-в) кп в п Пример 18.4. Приведем примеры R-эффективных (а следо- следовательно, и эффективных) оценок 6(Zn) неизвестных парамет- параметров в некоторых распространенных распределений, их дисперсии D 0(,Zn) , а также значения информациии Фишера /п@) (см. табл. 18.1).
§ 18] ТОЧЕЧНЫЕ ОЦЕНКИ 169 Пример 18.5. Приведем пример, когда эффективная оценка неизвестного параметра существует, a R -эффективная оценка не су- существует. Пусть выборка Zn соответствует распределению N(m; a ) с неизвестными параметрами 6\ = т, #2 = о~2 • В данном случае параметрическая модель является регулярной. Из п. 16.5 следует, что статистика n - - fc=l является несмещенной оценкой неизвестной дисперсии dx = о~2 . Как указано в примере 17.1 из п. 17.1, СВ A (n-l)sx(Zn) имеет распределение хи-квадрат Х2(п ~ 1) 5 а следовательно, её дисперсия равна D[Y^] = 2(n — 1). Поэтому D [?*(*»)] = Й- Согласно неравенству Рао-Крамера нижняя граница дисперсии любой несмещенной оценки в этой статистической модели равна 2<74/п . Таким образом, ^x{Zn) не является .R-эффективной оценкой. Но можно показать, что эта оценка является эффективной, т. е. ^x{Zn) имеет минимальную дисперсию. Таким образом, нижняя граница в неравенстве Рао-Крамера не достигается, а следовательно, R -эффективной оценки не существует. 18.2. Метод максимального правдоподобия. Как уже отме- отмечалось выше, на практике часто удается предсказать вид распре- распределения наблюдаемой СВ с точностью до неизвестных параметров О = col(#i,... ,#s), т.е. для непрерывной СВ X оказывается из- известной плотность /(ж,0), а для дискретной СВ X — вероятности д p[Xi,6) = Р#{Х = х{\, г = 1,7тг, где ж^, г = 1,7тг, — возможные значения СВ X. Например, может быть 0\ = тх , $2 = dx при s = = 2. Эти неизвестные параметры требуется оценить по имеющейся выборке Zn . Рассмотрим параметрическую статистическую модель ($0, Fzn(zn,0)), в G В С MS, для которой известна функция правдоподобия L(zn, #i,... , 0S). Определение 18.12. Оценкой максимального правдоподобия (МП-оценкой) параметра в G G называется статистика 0(Zn), мак- максимизирующая для каждой реализации zn функцию правдоподобия,
170 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V т. е. 0(zn) = argmaxL(zn,#). 0Е@ Способ построения МП-оценки называется методом максимального правдоподобия. Поскольку функция правдоподобия L(zn,0) и её логарифм \nL(zn,6) достигают максимума при одних и тех лее значениях #, то часто вместо L(zn,0) рассматривают логарифмическую функцию правдоподобия In L(zn, 0). В случае дифференцируемости функции lnL(zn,#) по в МП-оцен- МП-оценку молено найти, решая относительно #i,... , 0s систему уравнений правдоподобия 0InZ,(*w,01,... ,fla) n 01nZ,(*w,fli,... ,в8) двг ' * * * ' d0s Отметим, что в тех случаях, когда существует R -эффективная оценка параметра в, она совпадает с МП-оценкой. Пример 18.6. Если, например, СВ X имеет нормальное рас- распределение IN(rax;0xJ с неизвестным математическим ожиданием в = тх , то легко установить, что оценкой максимального правдо- правдоподобия параметра 0 = тх при любых ах является выборочное среднее rhx • Действительно, в этом случае L(zn,mx) = \ (хк — ГПхJ \ I 2Gx J exp Дифференцируя функцию \nL(zn,mx) по тт^х и приравнивая нулю получаемое выражение, находим уравнение, решение которого Пример 18.7. Пусть СВ X имеет равномерное распределение R(a; Ъ) с неизвестными параметрами В\ = а, #2 = Ь. В данном случае плотность распределения /(ж, а, 6) = 1/{Ъ — а), если х G [а, 6], и /(ж, а, 6) = 0, если ж ^ [а, 6] . Оценим параметры а ж Ъ методом максимального правдоподобия. Функция правдоподобия в данном случае имеет вид п ... , хп, а, Ъ) = Y
18] ТОЧЕЧНЫЕ ОЦЕНКИ 171 если а ^ х^ ^b для всех к = 1, п, и L{x\,... , жп, а, 6) = 0 в остальных случаях. Таким образом, функция правдоподобия отлична от нуля, если неизвестные параметры а и Ъ удовлетворяют неравенствам Ъ ^ х^ = тахж&, а ^ ж^1^ = min x^. к=1,п к=1,п При этом функция L(xi,... , жп,а, Ь) достигает максимума по а и 6, когда разность Ъ — а оказывается минимально возможной, не нарушающей полученные неравенства, т. е. в случае достижения в них равенств. Таким образом получаем МП-оценки неизвестных параметров а и Ь: где Х(п) и Х^1) — крайние члены вариационного ряда. Как отмечалось выше, данная параметрическая модель не являет- является регулярной, поэтому в данной модели R -эффективные оценки не существуют. Пример 18.8. Пусть случайная величина X имеет распреде- распределение Пуассона П(а) с неизвестным параметром 0 = а. Построим МП-оценку параметра а. Функция правдоподобия в этом случае равна к=1 Хк' поэтому логарифмическая функция правдоподобия равна lnL(zn, а) = ^2 Xklna — па — ln(a?i! • ... • хп\). к=1 Решая соответствующее уравнение правдоподобия — ]nL(zn,a) = О, находим МП-оценку неизвестного параметра а: Пример 18.9. Найдем МП-оценку для вероятности р «успеха» в схеме испытаний Бернулли. В этом случае имеем распределение Бернулли Bi(l;p) с неизвестным параметром 0 =р. Поэтому п
172 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V где х^ = 1, если в к-м испытании был «успех», и х^ = 0 — в противном случае. Решая уравнение правдоподобия dp относительно параметра р, находим МП-оценку 1 п л p(Zn) = - J2 18.3. Метод моментов. Исторически первым для оценивания неизвестных параметров был предложен следующий метод. Пусть имеется параметрическая статистическая модель E#, Fzn(zn, 0)), О Е Е О С Ms . Предположим, что у наблюдаемой С В X, порождающей выборку Zn , существуют начальные моменты v^ = М[Хг] , г = l,s. Тогда в общем случае от неизвестных параметров будут зависеть и начальные моменты, т.е. V{ = z^@) • Пусть щ , г = 1, s, — выборочные начальные моменты. Рассмотрим систему уравнений щ{6) = Vi, г = l,s и предположим, что её можно разрешить относительно параметров #1,... , 0s , т. е. найти функции ^ = ^(Pi,... , Р5), г = 1, s . Определение 18.13. Решение полученной системы уравнений 0i = Lpiipi,... ,Pg), г = l,s, называется оценкой параметра ^, найденной по методу моментов, или ММ- оценкой. Если функции ^i(-), ... ,^s(') непрерывны, то ММ-оценки явля- являются состоятельными. Замечание 18.2. Уравнения метода моментов часто оказыва- оказываются более простыми по сравнению с уравнениями правдоподобия, и их решение не связано с большими вычислительными трудностями. Пример 18.10. Пусть Zn = col(Xi,... ,Xn) — выборка, соот- соответствующая нормальному распределению N(m; а2) с неизвестными параметрами 6\ = т и О2 = о~2. Оценим параметры т и а2 с помощью метода моментов. В данном случае v\ = т, v<i = яг2 + ст2 и система уравнений для метода моментов принимает вид л 1 П \X А 1. п к=1
§ 19] ИНТЕРВАЛЬНЫЕ ОЦЕНКИ 173 Решая эту систему, находим ММ-оценки вх{2п) = vu 62{Zn) = v2- v\. Пример 18.11. Пусть Zn = col(Xi,... ,Xn) — выборка, соот- соответствующая равномерному распределению R(a; b) с неизвестными параметрами д\ = а и 62 = b. Оценим параметры а и b с помощью метода моментов. Поскольку для данного распределения а + Ъ (Ъ-аJ (а + Ъ\2 2 ' то система уравнений метода моментов принимает вид ' а + Ъ _ ^ А 1 \г^ х- 2 п ^ (b-af 12 - - - ¦-к=1 Репсая эту систему, получаем ММ-оценки неизвестных параметров: ^ А 1 где dx = - п k=i Оценки, полученные в примере 18.10 с помощью метода моментов, совпадают с МП-оценками, найденными в примере 18.6 из п. 18.2, а ММ-оценки в примере 18.11 не совпадают с МП-оценками, построен- построенными в примере 18.7 из того же пункта. § 19. Интервальные оценки 19.1. Основные понятия. Пусть имеется параметрическая ста- статистическая модель (S#, Fzn(zn, #)), #EOclR , ипо выборке Zn = = col(Xi,... , Хп), соответствующей распределению F(x, 0) наблюда- наблюдаемой СВ X, требуется определить неизвестный параметр в. Вместо точечных оценок, рассмотренных ранее, рассмотрим другой тип оце- оценок неизвестного параметра в G О С М1. Определение 19.1. Интервал [6i(Zn),62(Zn)] со случайными концами, «накрывающий» с вероятностью 1 — се, 0 < a < 1, неиз- неизвестный параметр в , т. е. P{0i(Zn) < в < e2(Zn)} = 1 - a,
174 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V называется доверительным интервалом (или интервальной оценкой) уровня надежности 1 — а параметра 0. Аналогично определяется доверительный интервал для произ- произвольной функции от параметра 0. Определение 19.2. Число S = 1 — а называется доверитель- доверительной вероятностью или уровнем доверия. Определение 19.3. Доверительный интервал [6i(Zn),62(Zn)] называется центральным, если выполняются следующие условия: Р{0^ №„)}=§, P{6»!(zn)^e}=|. Часто вместо двусторонних доверительных интервалов рассматри- рассматривают односторонние доверительные интервалы, полагая 6i(Zn) = — оо или 02(Zn) = +оо. Определение 19.4. Интервал, границы которого удовлетворя- удовлетворяют условию: Р{# > 02(Zn)} = а (или Р{в1(гп)^в} = а), называется соответственно правосторонним (или левосторонним) доверительным интервалом. Рассмотрим два различных способа построения доверительных интервалов. 19.2. Использование центральной статистики. Определение 19.5. Функция Y = G(Zn,6) случайной выбор- выборки Zn, такая, что её распределение Fy(y) не зависит от параметра О и при любом значении zn функция G(zn,0) является непрерывной и монотонной по в, называется центральной статистикой для пара- параметра 0. Зная распределение Fy(y) центральной статистики Y = = G(Zn,0), можно найти числа д\ и д2 , удовлетворяющие условию Тогда границы доверительного интервала [6i(Zn),62(Zn)] для пара- параметра 0 могут быть найдены, если разрешить, учитывая свойства функции G(zn,6), следующие неравенства: В частности, если G(zn,0) — монотонно возрастающая по 0 функция, то в!(гп) = G-\Zn,9l), e2(Zn) = G-\Zn,g2),
§ 19] ИНТЕРВАЛЬНЫЕ ОЦЕНКИ 175 где G~1(zn, д\) — функция, обратная по отношению к G(zn,0). Если G(zn,6) — монотонно убывающая по 0 функция, то Л ( гу \ S~1—l(ry _, \ Л ( гу \ S~1—l(ry _, \ v\\?n) — Ь \/jn^g2), V2\An) — Ст y/jn,g\). Применим данный метод для построения доверительных интерва- интервалов неизвестных параметров нормального распределения N(mx; сгх). С этой целью сформулируем утверждение, с помощью которого мож- можно определить центральные статистики для неизвестых параметров тх , сгх . Но перед его формулировкой напомним следующее понятие из линейной алгебры. Матрица С размерности п х п с элементами с^ , г = l,n, j = = 1, п , называется ортогональной, если СТС = /, где / — единичная матрица размерности п х п, а Ст — транспонированная матрица с элементами cjj = Cji, г = 1, n , j = 1, п. Рассмотрим ортогональную матрицу С специального вида, у которой первая строка состоит из элементов сц = 1/л/п, г = l,n, a остальные строки — произвольные, ненарушающие ортогональность матрицы С. Такая матрица всегда существует. Рассмотрим свойства введенной матрицы. Свойства матрицы С п 1) ^ Ckjcij = 0 для всех к ф г, так как СТ С = / и у единичной матрицы все элементы, кроме диагональных, равны нулю. п 2) ^ cfe • = 1 для всех к = 1, п, так как Ст С = / и диагональные элементы матрицы / равны единице. 3) Если у = Сх, где г/ = со1(г/1,... ,2/п) и ж = col(a?i, ...,жп), то п п ^ 2/j? = ^ а^ . Действительно, к=1 к=1 J2vl= УТУ = {CxfCx = xTCTCx = xTx=J2xl- к=1 к=1 4) ^ с^ = 0 для всех г = 2, п . Из свойства 1) G для первой строки ^ = 1) при г > 1 имеем
176 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V Теорема 19.1. [Теорема Фишера, усиленный вариант). Пусть Zn = col(Xi,... , Хп) — выборка, порожденная СВ X ~ N(mx; о~х), a fhx и dx — выборочные среднее и дисперсия. Тогда * А ^ / 1) СВ Мх — (fhx — ™>х)\/п / ах имеет распределение N@; 1); 2) СВ Dx— ndx I<j\ имеет распределение Х2(п ~ 1) '•> ° А ^ //^ 3) Мх— (fhx — тх)\{п — 1) / dx имеет распределение S (п — 1); 4) СВ fhx и dx независимы. Доказательство. 1) Докажем вначале первое утверждение. Так как сумма нормальных СВ является нормальной, то fhx = = — У^ Xi является нормальной СВ. Кроме того, из свойства l)fhx вытекает М[Х] = гпх • Далее, так как СВ Х{, г = 1, п, независимы и одинаково распределены, то в силу свойства 4)М [X] имеем D[mj] = = стх/п. Таким образом, (fhx — тх)л/п/о~х ~ N@; 1). 2) Докажем теперь второе утверждение. С этой целью введем новые случайные величины Y\,... ,Yn: Y= —CZn, (УХ где Y = со1(У1,... , Yn), Zn = col(Xi,... , Xn), С — ортогональная матрица, построенная выше, т.е. удовлетворяющая свойствам 1)С — 4) С. Тогда имеем j = l X j = l X XV j = 1 X Найдем моменты новых СВ. Учитывая свойства 1) fhx и 4) С, имеем M[Yi] = ^ Учитывая свойства 4) mj и 2) С, получаем
19] ИНТЕРВАЛЬНЫЕ ОЦЕНКИ 177 Пусть к ф i, /с = 2, п, г = 2, п. Тогда с учетом независимости СВ j = 1, п, и их одинаковой распределенности имеем ckjCijM[X]] = П 2 ^ = О, 3 = 1 1=1 3 = 1 3 = 1 так как каж:дая из этих сумм равна нулю в силу свойств 1)С, 4) С. Аналогично устанавливается, что кугУг = куку± = 0 для всех г = = 1,п, к = 1,п. Таким образом, мы установили, что все СВ Y&, к = = 1,п, некоррелированы, но они имеют нормальное распределение, так как образованы суммой нормальных СВ Ху, j = l,n. Поэтому, СВ У*., /с = 1,п, независимы. Причем, У^ ~ N@; 1), /с = 2, п. Рассмотрим выборочную дисперсию с?х, введенную согласно определению 16.16. Тогда \ 1 п «4 = ^ ? X j=i к=1 к=2 где Yfc ~ N@; 1), /с = 2, п. Таким образом, мы доказали, что, согласно определению 17.1, Dx= ndx 1°\ ^ Х2(п ~ !)• Учитывая теперь, что а таклсе независимость СВ Yi, У2? • • • ? ^п ? приходим к выводу, что независимы также и СВ с?х ? fnx , т. е. верно последнее утверлсдение теоремы. 3) Наконец, докажем третье утверждение. Рассмотрим СВ Ух = Yi - ^-mx= ^^ (mx - тх), (Ух <ух 12 Кибзун А.И. и др.
178 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V которая имеет распределение N@; 1), так как установлено выше, что M[Yi] = л/птх I'&х-> D[Yi] = 1, M[mj] = mx и СВ Y\ имеет нормаль- нормальное распределение. Очевидно также, что СВ У\ и dx независимы. Рассмотрим СВ Т, имеющую распределение Стьюдента S (п — 1). Согласно определению 17.2, используя полученные представления для fhx и dx , находим О Таким образом, Мх~ S (п — 1). Пример 19.1. По выборке Zn из нормального распределе- распределения требуется построить доверительный интервал для неизвестно- неизвестного МО тпх при известной дисперсии ах . Из приведенного выше * утверждения следует, что СВ Мх имеет нормальное распределе- распределение N@; 1), которое не зависит от тпх , и, кроме того, функция А * G(Zn,mx) = Мх= {fnx — mx)\/n/ &x является непрерывной и убы- * вающей по тпх • Это значит, что СВ Мх является центральной статистикой. Поэтому доверительный интервал для неизвестного mx можно найти, если разрешить относительно mx двойное неравенство 9i ^ ~^— ^ 92, (ух где величины д\ и д^ подобраны таким образом, что это нера- неравенство выполняется с вероятностью 1 — а. Заметим, что данное условие неоднозначно определяет д\ , д2 . Выберем доверительный интервал минимальной длины. Учитывая симметрию относительно оси OY плотности стандартного нормального распределения, можно показать, что такой интервал будет иметь минимальную длину, если положить д\ = — g<i, и при этом он оказывается центральным. Таким образом, получаем следующий доверительный интервал: где и7 — квантиль уровня ^ = 1 — а/2 стандартного нормального распределения N@; 1). В данном случае длина доверительного интервала равна А = 2и7ах/^/п и не случайна. Поэтому, задавшись значениями любых двух из трех величин А , а , п , можно определить значение третьей величины. Пример 19.2. Используя утверждение 3) теоремы 19.1, мож- можно построить аналогичный центральный доверительный интервал
§ 19] ИНТЕРВАЛЬНЫЕ ОЦЕНКИ 179 для неизвестного тх СВ X, имеющей нормальное распределение N(mx;(j|), и в случае, когда величина ах неизвестна: / d ~у d x fhx - \ Ц(п - 1) ^ тпх ^ fhx + \/ Ц(п - 1), где t1(n — 1) — квантиль уровня 7=1 — ol/2 распределения Стью- дента S (п — 1). В отличие от предыдущего примера длина доверительного ин- интервала случайна и зависит от СВ dx • Но при п ^ 30 интервалы из примеров 19.1 и 19.2 практически совпадают, так как при п ^ ^ 30 распределение Стьюдента близко к стандартному нормальному распределению. Пример 19.3. Центральный доверительный интервал для неиз- неизвестного параметра ах СВ X ~ N(mx;0"x) пРи неизвестном молено получить, используя утверждение 2) теоремы 19.1, где ж7(п — 1) и xi_7(n — 1) — квантили уровней 7 = 1 — «/2 и 1 — — 7 = а/2 для распределения хи-квадрат с п — 1 степенью свободы. Пример 19.4. Построим доверительный интервал для неизвест- неизвестного параметра Ъ равномерного распределения R@; Ъ). Можно пока- показать, что СВ G(Zn,b) = (X^n)/ Ъ) имеет распределение R@; 1) для любого Ъ > 0. Кроме того, функция G(zn,b) — убывающая по Ъ. Следовательно, G(Zn,b) является центральной статистикой. Тогда получаем условие для некоторых чисел д\ , д^. Разрешая двойное неравенство в этом вероятностном условии относительно 6, получаем следующий доверительный интервал: Х(п) Х(п) 92 9i Отметим, что этот интервал будет иметь наименьшую длину, если #2 = 1, а д\ является квантилью уровня а распределения R@; 1), т. е. д\ = а . 12*
180 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V 19.3. Использование точечной оценки. Пусть Т = 0(Zn) — точечная оценка неизвестного параметра в с функцией распределе- распределения ^т(^? 0), которая монотонна по в . Пусть tn = 0(zn) — реализация оценки Т = 0(Zn). Пусть 0i(zn) и ^(^п) — такие два числа, что e2(zn) = minjfl : FT(tn - 0,0) = 1 - | если i*V(?, 0) — возрастающая по 0, и = max 92(zn) = mm {в : FT(tn, в) = ^} , если FT(t,0) — убывающая по в. Интервал [9i(Zn),02(Zn)] со случайными концами, определенны- определенными выше, является центральным доверительным интервалом, «на- «накрывающим» с вероятностью 1 — а неизвестный параметр 0. Во многих случаях такой доверительный интервал совпадает с интервалом, построенным на основе центральной статистики. Напри- Например, этот факт имеет место в случае нормального распределения. Действительно, в частности, при неизвестном гпх и известном ах в качестве точечной оценки гпх можно принять Т = fhx , которая имеет распределение N(mx; o'x/71) • Очевидно, что распределение Ft^^itix) является в данном случае убывающей по гпх функци- функцией. Поэтому, если строить центральный доверительный интервал с помощью распределения точечной оценки, то он совпадет с довери- доверительным интервалом минимальной длины, найденным в примере 19.1 предыдущего п. 19.2. Но в ряде случаев вообще не удается построить доверительный интервал на основе центральной статистики, тогда как доверительный интервал, основанный на распределении точечной оценки, существует. Рассмотрим несколько таких примеров. Отметим также, что в примере 19.4 из предыдущего п. 19.2 наблюдается про- противоположная ситуация. Пример 19.5. Пусть СВ X имеет распределение Бернулли Bi(l;p) с неизвестным параметром р и Zn = col(Xi,... ,Xn) — соответствующая выборка. МП-оценкой для р является выборочное среднее г=1
§ 19] ИНТЕРВАЛЬНЫЕ ОЦЕНКИ 181 СВ Т = 0(Zn) может принимать значения 0,1/п, 2/п,... , п/п, а ее функция распределения имеет вид к У2 СпРгA — р)п~г- г=0 Дифференцируя по р функцию Рт(к/п,р), можно убедиться, что ее производная отрицательна, т.е. Ет(к/п,р) является монотонно убывающей по р при к < п. Поэтому можно применить описанную выше методику для построения доверительного интервала для р. Таким образом, границы центрального доверительного интервала [^i(zn)^2(zn)] находятся из решения следующих уравнений: п = V С* 041 - 0 )п~{ = - г=к i=0 Отметим, что при построении одностороннего доверительного интер- интервала для р можно положить, например, #2 = 15 и тогда получаем следующее уравнение для определения д\ : / ь. 1 \ п 1Т? ( п \ \ л fii c\i (л л \ть — i -. — -^ Т \ •) "\ I — / w G-1 11 — и\ ) — (л. v n J i=k Пример 19.6. Пусть С В X имеет распределение Пуассона П(а) с неизвестным параметром а. МП-оценкой параметра а является выборочное среднее п » Оценка Т = 0(Zn) принимает значения к/n при к = 0,1, 2,... , п, ее функция распределения имеет вид г=0 Производная данной функции оказывается отрицательной, следова- следовательно, функция Ft (к/п, а) является монотонно убывающей по а. Поэтому воспользуемся описанным выше способом построения цен- центрального доверительного интервала [6i(zn), #2(^71)] • В данном случае
182 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V для определения д\ и #2 получаем следующие уравнения: i=k t=0 Правая граница одностороннего доверительного интервала находится из уравнения г=0 19.4. Типовые задачи. Задача 19.1. Используя данные типовой задачи 16.1, построить центральный доверительный интервал уровня доверия 0,95 для неиз- неизвестного математического ожидания средней температуры января в г. Саратове (СВ X). Будем предполагать, что СВ X имеет гауссов- ское распределение. Решение. Согласно примеру 19.2 центральный доверительный интервал для неизвестного математического ожидания гпх уровня доверия 0,95 имеет вид fhx - у ^у tOr975(n - 1) ^ тх ^ тх + у ^у ^^7Ъ{п - 1), где объем выборки п = 13, fhx = —11,87, dx = 22,14 (результат ре- решения задачи 16.1), а квантиль распределения Стьюдента ?0,975 A2) = = 2,18 находится по таблице. Сделав необходимые вычисления, получаем доверительный интер- интервал для тх : [—14,43,-8,9]. Ответ. [-14,43,-8,9]. Задача 19.2. Используя данные типовой задачи 16.1, постро- построить центральный доверительный интервал уровня доверия 0,95 для неизвестной дисперсии средней температуры января в г. Саратове (СВ X). Будем предполагать, что СВ X имеет гауссовское распре- распределение. Решение. Согласно примеру 19.3 центральный доверительный интервал для неизвестной дисперсии ах уровня доверия 0,95 имеет вид
§ 20] ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ 183 где объем выборки п = 13, dx = 22,14 (результат решения зада- задачи 16.1), а а?о,975A2) = 23,3, Жо,о2бA2) = 4,4 — квантили распределе- распределения % A2), которые находятся по таблице. Таким образом, получаем доверительный интервал для ах : [11,4, 60,38]. Ответ. [11,4, 60,38]. § 20. Проверка статистических гипотез 20.1. Основные понятия. Определение 20.1. Статистической гипотезой Н или про- просто гипотезой называется любое предположение относительно пара- параметров или закона распределения СВ X , проверяемое по выборке Zn . Определение 20.2. Проверяемая гипотеза называется основ- основной (или нулевой) и обозначается Н$. Гипотеза, конкурирующая с Hq, называется альтернативной и обозначается Hi. Определение 20.3. Статистическая гипотеза Hq называется простой, если она однозначно определяет параметр или распределе- распределение СВ X. В противном случае гипотеза Hq называется сложной. Пример 20.1. По выборке Zn требуется проверить гипотезу Hq о том, что тх = то > гДе wo ~~ некоторое фиксированное число, против гипотезы Hi о том, что тх ф tuq . Или проверить гипотезу Hq против гипотезы Н^ о том, что тх > тп>о • Одна из основных задач математической статистики состоит в проверке соответствия результатов эксперимента предполагаемой ги- гипотезе Hq . С этой целью выбирается некоторая статистика Z = = (f(Zn), для которой предполагается известным условное распреде- распределение F(z\Hq) относительно проверяемой гипотезы Hq . С помощью этой статистики строится процедура (правило) проверки гипотезы. Определение 20.4. Статистическим критерием (критери- (критерием согласия, критерием значимости или решающим правилом) про- проверки гипотезы Hq называется правило, в соответствии с которым по реализации z = tp(zn) статистики Z гипотеза Hq принимается или отвергается. Определение 20.5. Критической областью G статистическо- статистического критерия называется область реализаций z статистики Z, при которых гипотеза Hq отвергается. Определение 20.6. Доверительной областью G статистиче- статистического критерия называется область значений z статистики Z, при которых гипотеза Hq принимается.
184 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V Например, в качестве статистического критерия молено использо- использовать правило: 1) если значение z = ip(zn) статистики Z = (p(Zn) лежит в критической области G, то гипотеза Н$ отвергается и принимается альтернативная гипотеза Hi ; 2) если реализация z = ip(zn) статистики Z = (p(Zn) лежит в доверительной области G, то гипотеза Hq принимается. При реализации этого правила возникают ошибки двух видов. Определение 20.7. Ошибкой 1-го рода называется событие, состоящее в том, что гипотеза Но отвергается, когда она верна. Определение 20.8. Ошибкой 2-го рода называется событие, состоящее в том, что принимается гипотеза i^o, когда верна гипо- гипотеза Н\. Определение 20.9. Уровнем значимости статистического критерия называется вероятность ошибки 1-го рода а = V{Z G G G\Hq} . Вероятность ошибки 1-го рода а может быть вычислена, если известно распределение F(z\H$) . Вероятность ошибки 2-го рода равна /3 = V{Z G G\H\} и может быть вычислена, если известно условное распределение F(z\Hi) статистики Z при справедливости гипотезы Н\ . Ясно, что с уменьшением вероятности а ошибки 1-го рода возра- возрастает вероятность /3 ошибки 2-го рода, и наоборот, т. е. при выборе критической и доверительной областей должен достигаться опреде- определенный компромисс. Поэтому часто при фиксированной вероятности ошибки 1-го рода критическая область выбирается таким образом, чтобы вероятность ошибки 2-го рода была минимальна. Проверка статистической гипотезы может быть подразделена на следующие этапы: 1) сформулировать проверяемую гипотезу Hq и альтернативную к ней гипотезу Hi; 2) выбрать уровень значимости а; 3) выбрать статистику Z для проверки гипотезы Hq ; 4) найти распределение F(z\Hq) статистики Z при условии, что гипотеза Hq верна; 5) построить, в зависимости от формулировки гипотезы Н\ , критическую область G; 6) получить выборку наблюдений х\,... ,хп и вычислить выбо- выборочное значение z = ip(xi,... ,хп) статистики Z критерия; 7) принять статистическое решение на уровне доверия 1 — а: если z G G, то отклонить гипотезу Н$ как не согласующуюся с результатами наблюдений, а если z G G, то принять гипотезу Hq как не противоречащую результатам наблюдений.
20] ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ 185 20.2. Проверка гипотезы о значении параметра. Пусть име- имеется параметрическая статистическая модель (S#, Fzn (zn, 0)), О G В С С К1, т. е. выборка Zn соответствует распределению F(x,0) с неиз- неизвестным параметром 0. Проверим простую гипотезу Hq , состоящую в том, что в = во , где во — некоторое фиксированное число из множества В. Формулировка альтернативной гипотезы Hi и уровень значимо- значимости а определяют размер и положение критической области G на множестве значений статистики Z. Например, если альтернативная гипотеза Hi формулируется как в > во (или в < во ), то критическая область размещается на правом (или левом) «хвосте» распределения статистики Z , т. е. G = {z > zi-a} (или G = {z < za}), где z\—a и za — квантили уровней 1 — а и а , соответственно, распре- распределения F(z\Hq) статистики Z при условии, что верна гипотеза Но . В этом случае статистический критерий называется односторонним. Если альтернативная гипотеза Hi формулируется как в ф во , то кри- критическая область G размещается на обоих «хвостах» распределения статистики Z, т. е. определяется совокупностью неравенств G={z<za/2}{J{z> Zi_a/2}, где za/2 и zi-a/2 — квантили уровней а/2 и 1 — а/2 , соответственно, распределения F(z\Hq) . В этом случае критерий называется двусто- двусторонним. Таблица 20.1 Предполо- Предположение о\ известна о\ неизвестна Статистика Z критерия (тх - mo)Vn о-х (тх — то)л/п — 1 ydx Распре- Распределение F(z\H0) N@;l) S(n- 1) Доверительная область G гипотезы Но [-щ,щ] [-*7(n-l),t7(n-l)] Пример 20.2. Пусть известно, что СВ X имеет нормальное рас- распределение. Требуется, используя реализацию выборки zn , проверить гипотезу Hq , состоящую в том, что тх = тп>о (гпо — некоторое фиксированное число), против альтернативной гипотезы Hi о том, что тпх ф тпо • Возможны два случая: дисперсия ах известна или неизвестна. Статистики Z для обоих случаев можно выбрать, исполь- используя утверждение из п. 19.2. Представим эти случаи в виде табл. 20.1.
186 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V Для каждого случая в соответствии с утверждениями 1) и 3) теоремы 19.1 получаем свою доверительную область, где и^, t1(n — 1) — квантили уровня j = 1 — а/2 распределений N@; 1) и S (п — 1) соответственно. Пример 20.3. Пусть СВ X нормально распределена, а ее дис- дисперсия неизвестна. Требуется на основе реализации zn выборки Zn, порожденной СВ X, проверить гипотезу Hq о том, что ах = а2, (erg — некоторое фиксированное число), против альтернативной ги- гипотезы Н\, состоящей в том, что ах ф <7q. Возможны два случая: тпх — известно или гпх — неизвестно. Представим эти случаи в виде следующей таблицы: Таблица 20.2 Предполо- Предположение гпх известно ГПх неизвестно Статистика Z критерия Eft-miJ fe=i -I ndx Распре- Распределение F(z\H0) X\n) X2(n-l) Доверительная область G гипотезы Но [xi 7(га),ж7(гс)] [x1-1(n - 1),ж7(п - 1)] Здесь х1{к), х\-1{к) — квантили уровня 7 = 1 — ol/2 и 1 — 7 распределения х2(&) с к степенями свободы, где к = п, п — 1. Замечание 20.1. На практике обычно задают a G [0,01, 0,05]. 20.3. Проверка гипотезы о виде закона распределения. Пусть имеется реализация zn выборки Zn, порожденной СВ X с неизвестной функцией распределения F(x). Требуется проверить гипотезу Hq , состоящую в том, что СВ X имеет определенный закон распределения F{x, 0) (например, нормальный, равномерный и т.д.). Истинный закон распределения F(x) неизвестен. Для проверки такой гипотезы можно использовать статистический критерий хи- квадрат (критерий Пирсона). Правило проверки заключается в следующем. 1) Формулируется гипотеза Но , состоящая в том, что СВ X имеет распределение определенного вида F(x,0i,... , 0S) с s неизвестными параметрами 0\,... , 0s (например, т и а2 для нормального распре- распределения, а и Ъ — для равномерного и т.д.).
§ 20] ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ 187 2) По реализации zn выборки Zn методом максимального правдоподобия находятся оценки 0\,... , 0S неизвестных параметров 01,... , 0s. 3) Действительная ось 1R разбивается на / + 1 непересекающийся полуинтервал (разряд) До,... , Д/ так, как это сделано в при по- построении гистограммы в п. 16.4. Подсчитывается число пк элемен- элементов выборки, попавших в каждый к-и разряд Ак , к = 1,/ — 1, за исключением До и Д/. Полагается по = щ = 0. 4) Вычисляются гипотетические вероятности рк попадания СВ X в полуинтервалы Ак , к = 0, /. Если у распределения F{x, 0i,... , 0S) имеется плотность /(ж,01,... , 0S), то вероятности р^ могут быть вычислены следующим образом: Рк = / (ж,0ь... ,0S) cte, afc где «о = — оо, a/+i = +oo, или приближ:енно по формуле Рк- f \хк,0ъ... ,0s) (ak+1 -ак), к = 1,1-1, где хк = (afe+1 + ак)/2 — середина разряда Ак . 5) Вычисляется реализация статистики критерия хи-квадрат по формуле z = <f(zn) = npo+J2 6) Известно, что при соблюдении некоторых естественных условий регулярности и достаточно большом объеме п выборки Zn распре- распределение F[z\Hq) статистики Z = (p(Zn) хорошо аппроксимируется распределением ^(l — s) с I — s степенями свободы, где s — количе- количество неизвестных параметров предполагаемого закона распределения F{x, 0i,... , 6S), a / + 1 — количество разрядов, вероятность попада- попадания в которые ненулевая. Тогда критическая область G принимает вид: G = (a?i_a(/ — s), +оо), где Х\-а{1 — s) — квантиль уровня 1 — а распределения Х2(/ — s), а — заданный уровень значимости (обычно а = 0,05). 7) В соответствии с критерием хи-квадрат гипотеза Н$ прини- принимается (т. е. реализация выборки zn согласуется с гипотезой Но) на уровне надежности 1 — а, если ip(zn) G G = [0,#i_a(Z — s)]. Если же y>(zn) G G, то гипотеза Hq отвергается.
188 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V Замечание 20.2. Если при разбиении на полуинтервалы А& оказалось, что npk < 5 для к = 1, / — 1, то рекомендуется объединить соседние полуинтервалы. Если при обработке наблюдений имеется только реализация ста- статистического ряда, то вычисляя выборочные моменты, считают все выборочные значения, попавшие в Ьй интервал, равными середине этого интервала. Это вносит известную ошибку, особенно заметную при малом числе интервалов. Для уменьшения ошибок, вносимых группировкой, применяют поправки Шеппарда. Если все интервалы Ak имеют длину, равную /г, то с учетом поправок Шеппарда первые четыре выборочных момента Р^, г = 1,4, соответственно равны: —/ — xv/ ^ 1 2 ^/^ 1^2 ^ л 1^2 ?4 з—з J1' 4—4 ^2 240 20.4. Проверка гипотезы о независимости двух СВ. Пусть имеется случайный вектор V = col(X, Y) с функцией распределения Fy{x,y). Компонентами V являются СВ X и Y с функциями рас- распределения Fx(x) и Fy(y) соответственно. Пусть имеется выборка Zn = col(Vi,... , Vn), где Vk = col(Xfc, Yfc). Здесь выборка Xi,... , Xn соответствует распределению Fx(x) СВ X, а выборка Yi,... , У^ соответствует распределению Fy (г/) СВ Y. Требуется проверить гипотезу Но о независимости СВ X и У, т.е. что Fy(x,y) = = Fx(x)Fy(y) для всех ж G М1 , у G М1 . Для проверки этой гипотезы используем критерий хи-квадрат, процедура применения которого состоит в следующих действиях. 1) Множество значений СВ X разбивается на s непересекающихся интервалов (разрядов) Ажд,... , Ax,s •> а множество значений СВ Y — на г непересекающихся интервалов А^д,... , Ау?г . 2) Для каждого г = 1, s и каждого j = 1,г вычисляется число п^ элементов выборки zn , принадлеж:ащих прямоугольнику Ах^ х Ау^- . 3) Вычисляется суммарное число пж^ элементов выборки zn, первая компонента которой попала в г-й разряд Ах^ для СВ X, и аналогично — число nyj элементов той же выборки zn , вторая компонента которой попала в j-й разряд Ayj для СВ Y: П = 4) Вычисляется значение статистики критерия хи-квадрат по
§ 20] ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ 189 формуле 5) При справедливости гипотезы Hq и достаточно большом п распределение статистики Z = ip(Zn) хорошо аппроксимируется распределением хи-квадрат с т = (s — 1)(г — 1) степенями свободы. Поэтому критическая область имеет вид G = (a;i_a(m),+oo), где xi-a(m) — квантиль уровня 1 — а распределения Х2(га). 6) Принимается статистическое решение на уровне доверия 1 — а : отклонить гипотезу Н$ , если ip(zn) EG, и принять гипотезу Hq — в противном случае. 20.5. Проверка гипотезы об однородности наблюдений. Рассмотрим вспомогательную задачу. Пусть имеется опыт с г воз- возможными исходами Ai,... , Аг , имеющими вероятности pj = Р(А/), j = l,r. Осуществляется s-кратное повторение серий из П{, г = = l,s, независимых повторений опыта. В данном случае выборку zn образуют наблюдавшиеся исходы в этих сериях, где п = п\ + ... ... + ns — общее число опытов. Требуется проверить гипотезу Hq о том, что во всех этих сериях наблюдалась одна и та же совокупность вероятностей pj , j = 1, г. Для решения этой задачи вновь применим критерий хи-квадрат. Последовательность проверки этого критерия состоит в следующем. 1) В каждой г-й серии, г = l,s, подсчитываются числа riji появлений событий А3; , j = 1, г . 2) Подсчитывается суммарное число JVj появлений события Aj , j' = 1, г , во всех сериях, а также числа rii, г = 1, s , и п : NJ = г=1 3) Вычисляется значение z статистики критерия хи-квадрат по формуле: *=lj=l
190 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V 4) Известно, что при больших п распределение статистики Z = (p(Zn) хорошо аппроксимируется распределением хи-квадрат %2(m) с га = (s — 1)(г — 1) степенями свободы. Формируется критическая область G = (a?i_a(ra), +оо), где х\—а{т) — квантиль уровня 1 — а распределения у2 (га). 5) Принимается статистическое решение: отклонить гипотезу Но , если (p(zn) Е G и принять гипотезу Н$ , если ip(zn) Е G. Пример 20.4. В частном случае, при г = 2, т.е. когда опыт имеет два исхода А\ = А и A<i = А, для которых р = Р(-А), q = = Р(-А), описанная процедура проверяет гипотезу о том, что во всех сериях наблюдений вероятность р остается неизменной. Пример 20.5. Описанная процедура может быть применена и во многих других случаях. Например, пусть имеется выборка Х\,... , Хп , соответствующая функции распределения Fx (х) СВ X и, кроме того, имеется выборка Yi,... ,Ym , соответствующая функ- функции распределения Fy(y) СВ Y. Требуется проверить гипотезу Hq об однородности выборок Х\,... , Хп и li,... , Ym , т. е. что Fy(t) = = -^х (^) Для всех t G 1R . Для того чтобы применить приведенную вы- выше процедуру, достаточно предварительно использовать метод груп- группировки данных, разделяя множества возможных значений СВ X и У на одни и те же разряды, попадания в которые интерпретируется как события Aj , j = l,r. В данном случае s = 2, и статистика критерия принимает следующий вид: А , ч J^ 1 friji Tlj2\2 z = ^(^n) = n • ra V ¦ M -) . 20.6. Типовые задачи. Задача 20.1. Используя данные типовой задачи 16.1, проверить на уровне доверия 1 — а = 0,95 гипотезу Но, состоящую в том, что математическое ожидание тх средней температуры января в г. Саратове (СВ X) равно —13,75, т.е. что тх = —13,75, против альтернативной гипотезы Н\, состоящей в том, что тх ф —13,75. Будем предполагать, что СВ X имеет гауссовское распределение. Решение. Дисперсия а\ СВ X неизвестна, поэтому выберем для проверки гипотезы Hq статистику В данной задаче п = 13, то = —13,75 а fhx = —11,87 и dx = = 22,14 (результат решения задачи 16.1). Согласно примеру 20.2
§ 20] ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ 191 распределением F(z\Hq) статистики Z при справедливости Hq является распределение Стьюдента S (п — 1). Таким образом, доверительная область G имеет вид G = = [-?о,975A2), ?0,975A2)] = [-2,18, 2,18]. Вычисляя значение z статистики Z для данной реализации выборки, имеем Таким образом, значение z статистики Z попадает в довери- доверительную область G, и, следовательно, на уровне доверия 1 — а = = 0,95 молено считать, что результаты наблюдений не противоречат гипотезе Hq , состоящей в том, что тх = —13,75. Ответ. Гипотеза Но принимается. Задача 20.2. Используя данные типовой задачи 16.1, проверить на уровне доверия 1 — а = 0,95 гипотезу Hq, состоящую в том, что дисперсия ах средней температуры января в г. Саратове (СВ X) равна 20, т. е. что ах = 20, против альтернативной гипотезы Н\ , состоящей в том, что ах ф 20. Будем предполагать, что СВ X имеет гауссовское распределение. Решение. Математическое ожидание тх СВ X неизвестно, поэтому выберем для проверки гипотезы Hq статистику ndx В данной задаче п = 13, ад = 20, a dx = 22,14 (результат решения задачи 16.1). Согласно примеру 20.3 распределением F(z\H0) стати- статистики Z при справедливости Hq является распределение %2A2). Таким образом, доверительная область G имеет вид G = = [жо,025A2), жо,97бA2)] = [4,4, 23,3]. Вычисляя значение z статистики Z для данной реализации выборки, имеем 13-22,14 z = 2Q = 14,39. Таким образом, значение z статистики Z попадает в довери- доверительную область G, и, следовательно, на уровне доверия 1 — а = = 0,95 можно считать, что результаты наблюдений не противоречат гипотезе Hq , состоящей в том, что ах = 20. Ответ. Гипотеза Hq принимается. Задача 20.3. В течение Второй мировой войны на южную часть Лондона упало 535 снарядов. Территория южного Лондона была разделена на 576 участков площадью 0,25 км2. В следующей таблице
192 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V приведены числа участков п&, на каждый из которых упало по к снарядов: Таблица 20.3 к пк 0 299 1 211 2 93 3 35 4 7 5 1 Требуется с помощью критерия хи-квадрат проверить на уровне доверия 1 — а = 0,95 гипотезу Hq, состоящую в том, что СВ X (число снарядов, упавших на один участок) распределена по закону Пуассона. Решение. Распределение Пуассона П@) имеет один параметр, МП—оценка этого параметра в = rhx ~ 0,93 (см. пример 18.8). В данной задаче действительная ось естественным образом разби- разбивается на 8 непересекающихся полуинтервалов Д& : (—оо,0), [0,1), [1,2), ... , [5,6), [6,+ос). Гипотетические вероятности р^ попадания пуассоновской СВ X в к-ж полуинтервал вычисляются по следующим формулам: Рк = (fc-1)! 6 pi = i - J21 для к = 1, 6, < о} = о. Вычисленные значения вероятностей указаны в табл. 20.4. Таблица 20.4 к А/с Рк 1 [0,1) 0,394 2 [1,2) 0,366 3 [2,3) 0,171 4 [3,4) 0,053 5 [4,5) 0,012 6 [5,6) 0,002 7 [6,оо) 0,002 Вычисляя значения z статистики критерия хи-квадрат, получим 6 = ? к=1 (пк - + пр7 « 2,2. При справедливости гипотезы Hq статистика Z имеет распределение %2E). Тогда критическая область G имеет вид G = (жо,9бE), +°°) = = A1,1, +оо), а доверительная область — G = [0,11,1]. Так как вычисленное по выборке значение статистики попадает в доверительную область G, то с вероятностью 0,95 молено утвер- утверждать, что опытные данные согласуются с гипотезой Hq. Ответ. Гипотеза Hq принимается.
20] ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ 193 Задача 20.4. Используя данные задачи 16.2, проверить на уровне доверия 1 — а = 0,95 гипотезу _?/о, состоящую в том, что рост взрослого мужчины (СВ X) имеет нормальное распределение. Решение. Нормальное распределение N@i;#2) имеет два неиз- неизвестных параметра: в\ = тх и д\ = ах. МП—оценкой параметра в\ является выборочное среднее их, а параметра В\ — выборочная дисперсия dx- С учетом поправок Шеппарда получим тх = 165,77, dx = 34,24. Вычислим гипотетические вероятности р&, к = 1,15, попадания гауссовской СВ X в полуинтервалы Д& (которые определены в задаче 16.2) по приближенной формуле ехр / (хк-тхJ\ где — середина интервала Д&, a h — длина интервала которая в данной задаче равна 3 для всех к = 1,15. Результаты вычислений для к = 1,15 приведены в табл. 20.5. Таблица 20.5 Рк Ак Рк Ак Рк 143-146 0,0003 158-161 0,115 173-176 0,067 146-149 0,002 161-164 0,175 176-179 0,027 149-152 0,007 164-167 0,204 179-182 0,009 152-155 0,023 167-170 0,184 182-185 0,002 155-158 0,058 170-173 0,127 185-188 0,0004 Вероятность попадания в интервал До = (—сю, 143) равна ро = 4 х х10~5, а в интервал Д16 = [188,+оо) — pie = 4 • 10~5. Вычисляя реализацию z статистики Z, получим 15 z = про + (пк - 7,177. к=1 При справедливости гипотезы Hq статистика Z имеет распределение %2A4). Тогда критическая область G имеет вид G = (жо,9бA4), +оо) = B3,7, +оо), а доверительная область — G = [0, 23,7]. Так как вычисленное по выборке значение статистики попадает в доверительную область Gr, то с вероятностью 0,95 можно утвер- утверждать, что опытные данные согласуются с гипотезой Hq. Ответ. Гипотеза Hq принимается. 13 Кибзун А.И. и др.
194 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V Задача 20.5. По переписи населения Швеции 1936 г. из совокуп- совокупности всех супружеских пар была получена выборка в 25 263 пары, вступивших в брак в течение 1931-1936 гг. В следующей таблице приведено распределение годовых доходов (в тыс. крон) и количество детей у супружеских пар в этой выборке (данные взяты из [19]): Таблица 20.6 число детей \ доходы 0 1 2 3 ^4 Сумма 2 2 6 0-1 161 755 936 225 39 116 3 5 1 10 1-2 577 081 753 419 98 928 2 2 5 2-3 184 222 640 96 31 173 1 1 3 > 3 636 052 306 38 14 016 Сумма 9 558 11 110 3 635 778 182 25 263 Требуется установить с доверительной вероятностью 1 — а = 0,95 являются ли зависимыми количество детей в семье (СВ X) и уровень годового дохода этой семьи (СВ Y). Решение. Для проверки гипотезы Hq о независимости СВ X и СВ Y воспользуемся критерием хи-квадрат. В данной задаче множество значений СВ X (количество детей в семье) разбивается на 5 разрядов Дж^, i = 1,5, естественным образом: 0, 1, 2, 3 и не менее 4-х детей (см. первый столбец табл. 20.6). Множество значений СВ Y (годовой доход семьи) разбито на 4 разряда Ду,</, j = 1,4, которые указаны в первой строке табл. 20.6). Вычисляя значение z (см. п. 20.4) по формуле = п ,-_-, А-Л "*, ПхАПу - 1 где п = 25 263, s = 5, г = 4, числа пх^ , г = 1,5, приведены в последнем столбце таблицы, а числа nyj , j = 1,4, приведены в последней строке таблицы, получим z = 568,5. При справедливости гипотезы Hq статистика Z имеет распреде- распределение хи-квадрат с числом степеней свободы т = (s — 1)(г — 1) = 4 х хЗ = 12. Тогда критическая область G имеет вид G = (жо,9бA2), +оо) = B1, +оо), а доверительная область — G = [0, 21]. Так как вычисленное по выборке значение статистики попадает в критическую область Gr, то с вероятностью 0,95 гипотеза Hq о независимости СВ X (количество детей в семье) и СВ Y (уровень годового дохода семьи) отвергается. Ответ. Гипотеза Но о независимости СВ X (количество детей в семье) и СВ Y (уровень годового дохода семьи) отвергается.
20] ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ 195 Задача 20.6. В табл. 20.7 приведены данные о распределении доходов (в тыс. крон) всех промышленных рабочих и служащих Швеции в 1930 г. для возрастных групп 40-50 лет и 50-60 лет (данные взяты из [19]). Требуется проверить на уровне доверия 1 — а = 0,95 гипотезу Но о том, что доходы рабочих и служащих возрастной группы 40—50 лет (СВ X) и доходы рабочих и служащих возрастной группы 50—60 лет (СВ Y) распределены одинаково. Таблица 20.7 доходы \ возраст 0-1 1-2 2-3 3-4 4-6 >6 Сумма 40-50 лет 7 831 26 740 35 572 20 009 11 527 6 919 108 598 50-60 лет 7 558 20 685 24 186 12 280 6 776 4 222 75 707 Решение. Для проверки гипотезы Hq об одинаковой распре- деленности (однородности) СВ X и СВ Y применим критерий хи- квадрат. В данной задаче количество серий испытаний 5 = 2. Тогда, согласно примеру 20.5 (см. п. 20.5), значение статистики критерия имеет вид z = n • m Г[ nj2 Tlji Tlj2 \ n m J ' где n = 108 598, m = 75 707, количество разрядов г = 6, числа rij j = 1,6, приведены во втором столбце таблицы, а числа п^ , .7 = 1,6, приведены в третьем столбце таблицы. Проведя необходимые вычисления, получим z = 840,62. При справедливости гипотезы Hq статистика Z имеет распреде- распределение хи-квадрат с числом степеней свободы т = (s — 1)(г — 1) = 1 х х5 = 5. _ _ Тогда критическая область G имеет вид G = (жо?9бE), +°°) = = A1,1, +оо), а доверительная область — G = [0, 11,1]. Так как вычисленное по выборке значение статистики попадает в критическую область G, то с вероятностью 0,95 гипотеза Hq об однородности С В X (доходы рабочих и служащих возрастной группы 40—50 лет) и СВ Y (доходы рабочих и служащих возрастной группы 50—60 лет) отвергается. Ответ. Гипотеза Hq об однородности СВ X (доходы рабочих и служащих возрастной группы 40—50 лет) и СВ Y (доходы рабочих и служащих возрастной группы 50—60 лет) отвергается. 13*
196 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА [ГЛ. V § 21. Задачи для самостоятельного решения 1. По данным типовой задачи 20.3 построить гистограмму числа снарядов, упавших на участок площадью 0,25 км2 . 2. Предполагая, что число снарядов, упавших на участок пло- площадью 0,25 км2 (см. задачу 20.3), имеет распределение Пуассона с неизвестным параметром в, построить МП-оценку этого параметра. 3. По данным типовой задачи 16.2 найти, учитывая поправки Шеппарда, выборочное среднее и выборочную дисперсию роста взрослого мужчины (СВ X). 4. По данным типовой задачи 16.1 построить центральный дове- доверительный интервал уровня доверия 1 — а = 0,99 для математиче- математического ожидания средней температуры января в г. Алатыре (СВ Y). Предполагается, что СВ Y имеет нормальное распределение. 5. По данным типовой задачи 16.1 построить центральный доверительный интервал уровня доверия 1 — а = 0,95 для дисперсии средней температуры января в г. Алатыре (СВ У). Предполагается, что СВ Y имеет нормальное распределение. 6. По данным типовой задачи 16.1 проверить на уровне доверия 1 — а = 0,99 гипотезу Но , состоящую в том, что математическое ожидание средней температуры января в г. Алатыре (СВ Y) равно — 11,87, т.е. что ту = —11,87, против альтернативной гипотезы Н\ 0 том, что ту ф —11,87, предполагая, что СВ Y имеет нормальное распределение. 7. По данным типовой задачи 16.1 проверить на уровне доверия 1 — а = 0,95 гипотезу Hq , состоящую в том, что дисперсия средней температуры января в г. Алатыре (СВ Y) равна 20, т. е. aY = 20, против альтернативной гипотезы Hi : <jy Ф 20, предполагая, что СВ Y имеет нормальное распределение. 8. В табл. 21.1 приведены результаты испытаний 200 ламп на продолжительность работы Т [в часах]. Таблица 21.1 Т [час] число ламп Г [час] число ламп Т [час] число ламп 0-300 53 1200-1500 16 2400-2700 5 300-600 41 1500-1800 12 2700-3000 3 600-900 30 1800-2100 9 3000-3300 2 900-1200 22 2100-2400 7 > 3300 0
21] ЗАДАЧИ ДЛЯ САМОСТОЯТЕЛЬНОГО РЕШЕНИЯ 197 Пусть СВ X — продолжительность работы лампы. Используя кри- критерий хи-квадрат, проверить гипотезу Н$ о том, что СВ X (реа- (реализация статистического ряда которой приведена в таблице) имеет экспоненциальный закон распределения с плотностью распределения вероятности f(x) = 0е~вх при х ^ 0. Уровень доверия принять равным 1 — а = 0,95. 9. Утверждается, что результат действия лекарства зависит от способа его применения. Проверьте это утверждение по данным, представленным в табл. 21.2. Уровень доверия принять равным 0,95. Таблица 21.2 результат \ способ применения неблагоприятный благоприятный А 11 20 В 17 23 С 16 19 10. В табл. 21.3 приведены данные о распределении доходов (в тыс. крон) заводских мастеров Швеции в 1930 г. для возрастных групп 40-50 лет и 50-60 лет (данные взяты из [19]). Таблица 21.3 доходы \ возраст 0-1 1-2 2-3 3-4 4-6 >6 40-50 лет 71 430 1072 1609 1 178 158 50-60 лет 54 324 894 1 202 903 112 Требуется проверить на уровне доверия 0,95 гипотезу о том, что доходы заводских мастеров возрастной группы 40—50 лет (СВ X) и заводских мастеров возрастной группы 50—60 лет (СВ Y) распреде- распределены одинаково. Уровень доверия принять равным 0,95. Сравните полученный результат с ответом задачи 20.6. 11. В результате проведенного исследования было установлено, что у 782 светлоглазых отцов сыновья тоже имеют светлые глаза, а у 89 светлоглазых отцов сыновья — темноглазые. У 50 темноглазых отцов сыновья также темноглазые, а у 79 темноглазых отцов сыно- сыновья — светлоглазые. Имеется ли зависимость между цветом глаз отцов (СВ X ) и цветом глаз их сыновей (СВ Y)? Уровень доверия принять равным 0,99.
ГЛАВА VI ПРИЛОЖЕНИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ 22. Регрессионный анализ 22.1. Модели регрессии. Пусть Y и X — зависимые СВ и требуется по результатам наблюдений (#i,... ,жп) за вектором X и (з/ъ • • • ,Уп) за вектором Y сделать обоснованное заключение о характере зависимости Y от X. Определение 22.1. Зависимость Y = ip*(X) = M[Y\Х], обес- обеспечивающая наилучшее (в среднем квадратическом смысле) прибли- приближение С В Y: М [(У - ^*(Х)J] < М [(У - где <?>(-Х") — произвольная функция, называется функцией теоре- теоретической регрессии. При этом X называют регрессором, а У — откликом. Для вычисления условного МО необходимо знать совместную функцию распределения СВ X и Y, а такой информацией иссле- исследователь, как правило, не располагает. Для преодоления этого за- затруднения можно, например, ограничиться рассмотрением некоторо- некоторого параметрического класса функций ip(x) = <^(ж, в), где в G О С С Ms — некоторый неизвестный параметр, который требуется оценить по имеющейся выборке наблюдений (#i,... , хп) и (г/i,... , г/п). Определение 22.2. Класс линейных по в функций ip(x, в) = где (pi(x),... ,(ps{x) — известные функции, определяющие план эксперимента, называется линейной регрессионной моделью. При этом должно выполняться очевидное требование s < п. Часто рассматривают модель наблюдений за СВ Y, в которой вектор X считается неслучайным и присутствуют случайные ошибки наблюдений W:
§ 22] РЕГРЕССИОННЫЙ АНАЛИЗ 199 В этой модели неизвестными по-прежнему являются параметры в\, ... , 6S , а векторы #i,... , хп и распределения СВ W& , /с = 1, п, считаются известными. 22.2. Схема Гаусса—Маркова. Линейную модель наблюдений, приведенную в предыдущем разделе, можно записать в более ком- компактном виде Y = АО + W, если ввести обозначения У = col(Yi,... , 1^) для вектора наблю- наблюдений, в = col(#i,... ,#s) — для вектора неизвестных параметров, W = colfWi,... , Wn) — для вектора случайных ошибок наблюдения, А = {cikj} — для матрицы, составленной из элементов a^j = y>j(xk), j = l,s, к = 1,п. При этом часто матрицу ^4 называют матрицей плана или регрессионной матрицей. Без ограничения общности изло- изложения предположим, что M[W] = 0 и М [И^И^Т] = а2/, где / — единичная матрица размерности п х п. Определение 22.3. Оценкой вектора неизвестных парамет- параметров в, найденной по методу наименьших квадратов (или МНК- оценкои), называют вектор 0 = argmin(y - Ав)Т(Y - АО). Сформулированную задачу называют схемой Гаусса-Маркова. Теорема 22.1. {Теорема Гаусса-Маркова). Пусть матрица АТА невырожденная. Тогда МНК-оценка 0 обладает следующими свойствами: 1) МНК-оценка 0 существует, она единственная и определяется формулой 0= (ATA)~1ATY; 2) МНК-оценка в является несмещенной и ее компоненты имеют минимальные дисперсии в классе линейных относительно Y несмещенных оценок; 3) ковариационная матрица МНК-оценки 0 определяется форму- формулой , -1 К9=о>{АТА) Если в схеме Гаусса-Маркова СВ W имеет нормальное распреде- распределение, то
200 ПРИЛОЖЕНИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ [ГЛ. VI 1) МНК—оценка в имеет s -мерное нормальное распределение 2) Квадратичная форма (в — 0)тАтА@ — в) I а2 имеет распреде- распределение хи-квадрат X2(s) c s степенями свободы. 3) МНК-оценка в является также МП-оценкой. Пример 22.1. Пусть требуется оценить зависимость по результатам наблюдений Ук = 0\ + 02хк + в точках жд., где Wk , к = 1,п, — случайные ошибки измерений. В 7-1 7 1— данном случае элементы матрицы плана равны akj = хк , к = 1,п, j = 1,5. Тогда искомую зависимость можно определить в виде = 01 где оценки 0j параметров Qj, j = 1, s, находятся по методу наимень- наименьших квадратов из условия минимума квадратической функции к=1 3=1 Приравнивая нулю частные производные по Oj квадратической функции Q(#i, • • • > 6s) •> можно получить систему линейных уравнений для определения оценок неизвестных параметров 0\,... , 0s : 0Q(fli,... ,0s) = = dQ(Ou... ,0s) =Q дв\ ''' dOs В частном случае, когда s = 3 приходим к задаче построения па- параболической регрессии. В данном случае после несложных преобра- преобразований можно получить следующую систему линейных уравнений, определяющих оценки д\, в2 , 63 \ + ОК102 + «4^3 + «3^2 + «2^1 =
§ 22] РЕГРЕССИОННЫЙ АНАЛИЗ 201 где коэффициенты этих уравнений расчитываются по формулам к = 1 к = 1 Реш:ая полученную систему линейных уравнений относительно оценок #1 ? 02 ? 03 и подставляя их значения в приведенную выше формулу, получаем искомую зависимость у(х). 22.3. Простая линейная регрессия. Пример 22.2. Рассмотрим модель простой линейной регрессии. Пусть СВ Y и W связаны уравнением Y = ах + Ъ + W, где СВ W может быть интерпретирована, например, как погрешность вычисле- вычисления детерминированной величины у = ах -\- Ъ. Пусть СВ W имеет нормальное распределение N@; а2). Предположим, что в соотноше- соотношении у = ах + Ъ параметры а и Ъ неизвестны, а при каждом к-м наблюдении случайной величины Y детерминированная величина х принимает различные значения Xk , к = 1,п. Тогда СВ Y& = + b + Wk , к = 1, n, будет иметь нормальное распределение + 6;сг2), так как М[У&] = ахк + Ъ. Будем считать, что наблюдения независимы друг от друга, т. е. С В Wk являются независимыми для разных к с одним и тем же распределением N@; сг2). В данном случае неоднородную выборку Zn образуют наблюдения Y\,... , Yn . Требуется по выборке Zn и известным значениям #i,... , хп оценить неизвестные параметры а и Ь. Рассмотрим для реализации выбор- выборки zn = со1(г/1,... ,уп) логарифмическую функцию правдоподобия miv(zn,a,6) с параметрами и\ = a , #2 = о, которая в данном случае имеет вид л т( и\ ^ ST^ ( тлЪ 1 ( /о mLf zn, a, о) = > (г/^ — аж^ — о) — nln I av 2 Необходимое условие максимума этой функции: ^lnL(zn,a,6) = 0, — ]nL(zn,a,b) = 0. Решая полученную систему из двух уравнений с двумя неизвестными а и Ъ для каждой реализации выборки zn , находим оценки парамет- параметров: п п к=1 к=1 к=1 П к=1
202 ПРИЛОЖЕНИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ [ГЛ. VI Затем, заменяя в полученных выражениях реализацию выборки zn на выборку Zn = col(Yi,... , 1^), получаем точечные оценки неиз- неизвестных параметров a(Zn), b(Zn). Пример 22.3. Рассмотрим модель простой линейной регрессии из примера 22.2, не предполагая, что ошибки W& имеют нормальное распределение, и, кроме того, считая, что коэффициенты Xj~ случай- случайны и наблюдаемы: Y& = аХк + Ъ + W& , /с = 1, п. Пусть М[И//С] = 0, = а и неизвестна, СВ И7^, /с = 1,п, независимы. Предполо- Предположим, что СВ Хк и Wk , & = 1,п, независимы, причем Х& имеют одно и то лее, но неизвестное распределение Fx{x). По результатам наблюдений (yi,xi),... ,(уп,жп) требуется оценить неизвестные па- параметры а и Ъ в линейной регрессионной модели. Для неоднородной выборки ~zn = со1(г/1,... , уп, Х\,... , жп) рассмотрим квадратическую функцию Q(zn, a,b) = -J2 (Ук ~ ахк ~ ЪJ, характеризующую среднюю по п квадратическую ошибку предсказа- предсказания того, что в п наблюдениях СВ Y примет значения у^ , к = 1,п. Определение 22.4. МНК-оценками, полученными по методу наименьших квадратов, неизвестных параметров а и Ъ в линейной регрессионной модели У^ = аХк + Ь + И7^ , /с = 1, п, называют оценки a(Zn) и b(Zn), значения которых минимизируют квадратическую функцию Q(zn, а, 6), построенную по реализации выборки гп . В данном случае видно, что функция Q(zn,a,6) совпадает по форме с точностью до коэффициентов с логарифмической функцией правдоподобия из примера 22.2: Q(zn, а, Ь) = -— InL(zn, а, 6) - 2а2 In Поэтому минимум функции Q(zn,a,6) по параметрам а и b достига- достигается при тех же значениях а и b, что и в методе максимального прав- правдоподобия (минимизация функции Q{zn,a,b) по а и 6 эквивалентна максимизации функции lnL(zn, a, 6)) и определяется соотношениями из примера 22.2. Заменяя в этих соотношениях ~zn на Zn , получаем / А ^^ a(Zn) = rXY\h^, b{Zn) = fhY -a(Zn)fhX- Найденные по методу наименьших квадратов оценки a(Zn) и b(Zn) неизвестных параметров а ж b построены для произвольно
§ 22] РЕГРЕССИОННЫЙ АНАЛИЗ 203 распределенных случайных ошибок Wk и случайных коэффици- коэффициентов Х&, тогда как по методу максимального правдоподобия аналогичные оценки получены в предположении о нормальности Wk и для детерминированных значений Хк , к = 1,п. Иными словами, МНК—оценки оказываются более робастными (т. е. менее чувстви- чувствительными к априорной информации о случайных коэффициентах Хк и ошибках Wk ) по сравнению с ММП-оценками. Исследуем статистические свойства найденных МНК—оценок a(Zn) и b(Zn). Предполагая существование моментов у СВ У и X и переходя к пределу в соотношениях для a(Zn) и b(Zn) при п —у оо, по закону больших чисел получаем a(Zn) >> а = — rxY-, b(Zn) у о = ту — а тх- (ух Пример 22.4. Пусть числовые характеристики СВ X и Y известны: тх, сгх, ту, &у, vxy •> но функциональная связь между СВ X и Y неизвестна. Рассмотрим новую СВ Y = аХ + 6, где а и 6 — некоторые заданные параметры. Задача предсказания СВ У заключается в том, чтобы по наблюдениям (реализациям) #i,... , жп предсказать значения наблюдаемой СВ У на основе зависимости ^ д у к = ажд; + 6, к = 1,п, зная лишь числовые характеристики СВ X и Y. Ясно, что предсказываемые значения у к будут отличаться от реализаций ук СВ Y, а точность предсказания определяется параметрами а и b. Зададимся целью выбрать параметры а и b так, чтобы среднеквадратическая ошибка предсказания была минимальна: Г/ ^ х21 (а*,Ь*) = axgminM (У-У(Х, а, 6I . а,6 |_\ / J Обозначим Q(a, Ь) = М |"(У - У (X, а, 6)) 21 = М [(У - аХ - ЪJ] . Тогда можно установить, что Q(a, b) = о-у A - r2XY) + (асгх - сгугХуJ + (ту - ашх - ЬJ. Для того чтобы функция Q(a,b) достигала минимума по а и 6, достаточно выбрать * cry т* * а = — rxY-, о = ту — а (УХ В этом случае
204 ПРИЛОЖЕНИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ [ГЛ. VI Значения параметров а* и 6* совпадают с предельными значениями оценок a(Zn) и b(Zn), полученными в примере 22.3. Проанализируем минимальное значение функции Q{a\ Ь*) = Б[У - а*Х - Ь*] = <#A - г?у), так как М[У - а*Х - b*] = my - а*тх — Ь* =0. Таким образом, имеем 2 _ D [У - а*Х - Ь*] 1 — ^3TV Отсюда следует, что коэффициент корреляции характеризует от- относительную (в единицах а\) величину среднего квадратического отклонения СВ Y от линейной оценки наилучшего приближения У* = а*X + 6* , т. е. гху численно характеризует степень линейной стохастической зависимости между СВ X и Y. Чем ближе |гху| к единице, тем теснее будут группироваться выборочные точки (хк,Ук) около прямой у = а*ж + 6* , называемой прямой среднеквадратической регрессии СВ Y на СВ X. При гху = =Ы имеем D[y — аХ — Ь] = = 0, поэтому, согласно свойствам МО, СВ X и Y с вероятностью 1 линейно зависимы: Y = а*Х + 6* . Как отмечалось в п. 22.1, наилучшей среднеквадратической оцен- оценкой СВ Y по СВ X является условное МО У* = М[У|Х]. В част- частности, если вектор Z = col(X, Y) — гауссовский, то из теоремы о нормальной корреляции следует, что Y* = M[Y\X] =mY + ^^ (X - тх), (Ух т. е. наилучшая оценка У* линейно зависит от X и совпадает с оцен- оценкой, полученной выше с помощью метода наименьших квадратов при условии, что функция ip(X) линейна. График функции у* = М[У|ж] называется линией регрессии СВ Y на СВ X. В гауссовском случае линия регрессии — прямая. 22.4. Типовые задачи. Задача 22.1. Используя данные типовой задачи 16.1, построить линейную регрессионную модель описывающую зависимость между СВ Y (средняя температура января в г. Алатыре) и СВ X (средняя температура января в
§ 23] МЕТОД СТАТИСТИЧЕСКИХ ИСПЫТАНИЙ 205 г. Саратове). Заметим, что распределение случайных ошибок Wk неизвестно. Решение. Для оценивания неизвестных параметров а и Ъ используем МНК. Согласно примеру 22.3, МНК-оценки имеют вид: a(Zn) = rxY\h^, Kzn) = rhY -a(Zn)fhx. V d В данной задаче t'xy = 0,95, dy = 20,09, dx = 22,14, fhx —11,87, my = —13,75 (результат решения задачи 16.1). Проведя необходимые вычисления, получим 2 = 0,91, b = — 3. Ответ. а = 0,91, Ь= -3. 23. Метод статистических испытаний 23.1. Основные понятия. Определение 23.1. Метод вычисления некоторой детермини- детерминированной величины а как среднего арифметического Yn независи- независимых одинаково распределенных СВ Х\,... , Хп , подобранных таким образом, чтобы Yn —'—^ а, называется методом статистических испытаний (методом Монте-Карло) для вычисления а. Замечание 23.1. В некоторых учебниках метод Монте-Карло называют также методом статистического моделирования, что, на наш взгляд, не совсем корректно. Дело в том, что термин «моделирование» используется также в теории математического моделирования для описания процесса создания математических моделей каких-либо явлений. Подчеркнем, что в методе Монте-Карло речь идет о статистической имитации испытаний (опытов), а не о процессе создания ститистических моделей опытов. 23.2. Вычисление вероятности события. Пример 23.1. Рассмотрим применение метода статистических испытаний для оценивания неизвестной вероятности р = некоторого события А . В соответствии с усиленным законом больших чисел частота события А сходится почти наверное к вероятности события А, т.е. Wn(A) = М(А)/п —'—^ р при п —> оо. Кроме того, в соответствии с теоремой Муавра—Лапласа справедливо другое
206 ПРИЛОЖЕНИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ [ГЛ. VI предельное соотношение при п —ь сю: Воспользуемся этими соотношениями для выбора гарантирующего числа испытаний N, при котором можно было бы сказать, что СВ M(A)/N «близка» к оцениваемой вероятности р. Поступим следую- следующим способом. Вначале зададим точность А оценки вероятности р : \М/п — р\ ^ А, где М = М(А). Затем найдем надежность этой * оценки, учитывая, что Wn ~U, р/|М_ Задав доверительную вероятность S = 1 — a, получим трансцендент- трансцендентное уравнение 2Фо (Ал/N/pq ) = E, из которого можно найти где ЖA+я)/2 удовлетворяет условию: Фо(^A+^)/2) = V2 ? т- е- является квантилью уровня A + 5)/2 распределения N@; 1). Но величины р и q = 1 — р заранее неизвестны, поэтому заменим величину р{1 — р) на ее максимальное значение, которое, очевидно, достигается при р = 1/2 и равно 1/4. Поэтому выбираем (»A+Д)/2) В этом примере для вычисления N$ необходимо задать уровень доверительной вероятности S = 1 — а (вторичный по отношению к р) и точность А вычисления р. Замечание 23.2. При р > 0,8 обычно задают А = A — р)/10 и S=I-A. Пример 23.2. В предыдущем примере гарантирующее число испытаний было выбрано априори, т. е. до опыта, и одним и тем же для всех оцениваемых вероятностей р. Но интуитивно ясно, что Ns должно быть различным в зависимости от значения р и от реализации числа успешных испытаний М. Например, пусть в серии из N испытаний все испытания оказались успешными, т. е. М = = N. Найдем для этого случая зависимость N$(p) гарантирующего числа испытаний от доверительной вероятности S = 1 — а и
§ 23] МЕТОД СТАТИСТИЧЕСКИХ ИСПЫТАНИЙ 207 оцениваемой вероятности р. С этой целью рассмотрим, как и в * примере 23.1, нормированную СВ Wn, ho потребуем выполнения другого вероятностного условия: } = 5, где х$ — квантиль уровня S = 1 — а для стандартного нормального распределения N@; 1). Это условие отражает наше желание добиться того, чтобы частота Wn была не меньше оцениваемой вероятности р с некоторой точностью, т. е. Wn= (Wn - р) где К = N — М есть случайное число неуспешных испытаний. Действительно, это неравенство эквивалентно следующему: Если последнее неравенство выполнено для конкретно реализовав- реализовавшегося значения частоты, то можно надеяться (с доверительной ве- вероятностью S), что полученное значение Wn лишь незначительно меньше вычисляемой вероятности р (см. более подробно о понятии доверительного интервала в пункте 19.1). Выбирая минимальное N, удовлетворяющее полученному неравенству, т. е. решая соответству- соответствующее квадратное уравнение (N — к — NpJ = Nx26p(l — р), где к — реализация К, находим Ns(p,k)= pfc + ^ + W^ + ^j +1, В частности, если все испытания оказались успешными (случай к = 0), то Например, если при вычислении вероятности р = 0,99 положить, как рекомендуется в примере 23.1, А = 0,001, S = 1 — а = 0,999, то по формуле из этого примера получаем априорное значение гарантирующего числа испытаний N$ = 10 300 000, так как в этом случае х$ = 3,209. При тех же данных апостериорное значение гарантирующего числа непрерывно успешных испытаний оказывается намного меньше: N$(p, 0) = 1030.
208 ПРИЛОЖЕНИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ [ГЛ. VI Пример 23.3. Используем теперь другую предельную теорему для выбора гарантирующего числа испытаний. Предположим, что р > 0,9 и воспользуемся теоремой Пуассона. Пусть q = 1 — р — вероятность неуспешных испытаний, a Wn = K/N — частота неуспешных испытаний в серии из N испытаний, где К — случайное число неуспешных испытаний. В соответствии с теоремой Пуассона при больших N и малых q распределение частоты Т = Wn можно аппроксимировать распределением Пуассона TL(Nq), в соответствии с которым имеем i=0 Воспользуемся результатом из примера 19.6, приведенного в пунк- пункте 19.3, для построения правостороннего доверительного интервала [О, 02] , который «накрывал» бы неизвестный параметр q с довери- доверительной вероятностью S = 1 — а . Таким образом, получаем уравнение связи между параметрами N , в2 , к , а : Fl fM = f C-WW =а U; fro *! Можно показать, что функция в левой части этого уравнения моно- монотонно убывает по к с ростом N. Поэтому корень данного уранения по N может быть легко найден, например с помощью метода дихотомии. В частном случае, когда в серии из N испытаний все испытания оказались успешными, т. е. к = 0, то данное уравнение принимает более простой вид e~N°2 = а. Отсюда находим гарантирующее число испытаний при условии, что все испытания успешны: 23.3. Вычисление определенного интеграла. Пример 23.4. Рассмотрим определенный интеграл а= \g(x)dx, где д(х) — ограниченная на отрезке [0,1] функция (|#(ж)| ^ с < < оо для всех х G [0,1]). Рассмотрим также СВ X, равномерно
§ 23] МЕТОД СТАТИСТИЧЕСКИХ ИСПЫТАНИЙ 209 распределенную на отрезке [0,1], для которой fx(x) = 1, если х Е Е [0,1], и fx(x) = 0, если х ? [0,1] . Тогда очевидно, что М[д(Х)}= Таким образом, значение определенного интеграла можно найти как математическое ожидание СВ Х= д(Х), где С В X имеет равномерное распределение на отрезке [0,1], X ~ R@; 1). Пусть теперь последовательность {Хп} , п = 1,2,... , состоит из СВ, независимых и равномерно распределенных на отрезке [0,1] . Можно убедиться, что в этом случае СВ Хп— д(Хп), п = 1,2,... , будут также независимы, одинаково распределены с конечными МО и дисперсиями. Так как МО С В Хп ограничены, то по усиленному закону больших чисел (теорема Колмогорова) последовательность А 1 П ~ СВ Yn = — ^2 Хк сходится почти наверное к величине а = п k=i т. e. Yn —'-ч> а при п —)> оо. Это значит, что, проведя большое количество испытаний, можно с высокой точностью вычислить значение интеграла а . Замечание 23.3. Метод Монте-Карло имеет огромную область приложения. Наиболее сложной проблемой при его реализации яв- является выбор необходимого числа испытаний п, такого, чтобы мож- можно было считать, что С В Yn достаточно «близка» к а. Ясно, что из-за вычислительных трудностей желательно выбирать величину п с возможно меньшим гарантирующим значением. Обозначим это значение через N. Для выбора N обычно используют централь- центральную предельную теорему, считая, что распределение нормированной суммы Zjsf СВ Хк , к = 1,7V, является стандартным нормальным распределением N@; 1). Рассмотрим на примерах, как выбирается величина 7V. Пример 23.5. Выберем гарантирующее число статистических испытаний 7V при вычислении значения а определенного интеграла из примера 23.4. Рассмотрим дисперсию СВ Х= д(Х), предполагая, что д(х)фа и д[х) —непрерывна, + ОО 1 1 В[д(Х)} = | (д(х) - affx{x) dx = J (g(x) - aJ dx ^ | (\д(х)\ + \а\J dx. -оо 0 0 14 Кибзун А.И. и др.
210 ПРИЛОЖЕНИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ [ГЛ. VI По условиям примера 23.4 имеем |#(ж)| ^ с, тогда 1 1 :с, B[g(X)}^\(\g(x)\+cJdx^4c2. Учтем, что к последовательности СВ д(Хп), п = 1, 2,... , применима центральная предельная теорема, в соответствии с которой СВ А 1 П = -Y: \д{хк) - тк], Sn fc=l А Г П 1 А где s2 = D \^2 d(Xk) , rrik = М [^(Х^)], сходится по распределению k=i к СВ U - N@; 1), т. е. Zn —^U U при п -+ оо . Далее, по усиленному закону больших чисел, = \ Е 9(Хк) ^^ а й М[д(Х)}, к=1 т. е. СВ Yn сходится почти наверное к постоянной а. Это значит, что при больших п С В Yn «близка» к а. Предположим, что нужно вычислить а с точностью A: \Yn — а\ ^ А. Поскольку Yn является случайной величиной, выясним степень достоверности этой оценки: Так как D[g(X)] ^ 4с , то В соответствии с ЦПТ имеем Zn > U, т. е. X где Фо(ж) = ^^ e-t I2 dt. Выберем некоторую доверительную v 2тг J о вероятность ^ = 1 — a, которая равна требуемой надежности выполнения неравенства \Yn — а\ ^ А, т. е. P{|^n| ^ Ал/п/2} = ^. Замечание 23.4. На практике величину 5 = 1 — а обычно задают в пределах 0,95 ^ S < 1.
§ 23] МЕТОД СТАТИСТИЧЕСКИХ ИСПЫТАНИЙ 211 Тогда, решая уравнение 2Фд ( AyN / Bс) 1 = S относительно 7V, молено найти гарантирующее число испытаний Ns . Функция Фо(ж) задается таблично, и поэтому для доверительной вероятности S молено найти такое значение x^i+s)/2 •> что Фо(жA+5)/2) = S/2. Число ЖA_|_^/2 является квантилью уровня A + 5)/2 распределения N@;l). Таким образом, получаем уравнение А л/N / Bс) = ЖA+?)/2, из / которого легко найти искомое значение где символ [ • ] означает целую часть числа. Подчеркнем, что для вычисления N$ необходимо задать точность А оценки величины а и уровень доверительной вероятности S. В данном примере рассмотрен случай вычисления а = М[#(Х)] для равномерно распределенной СВ X ~ R@; 1). Аналогично молено поступить при вычислении а = М[д(Х)] для произвольной СВ X, такой, что а\ < оо . 23.4. Типовые задачи. Задача 23.1. Предвыборный штаб кандидата X в президенты проводит социологический опрос, чтобы оценить вероятность р того, что избиратели будут голосовать на предстоящих выборах за кандидата X. Сколько избирателей надо опросить, чтобы с доверительной вероятностью 0,95 отклонение полученной оценки от истинной вероятности р было не более 0,01 ? Решение. В данной задаче определен уровень доверительной вероятности S = 1 — а = 0,95 и точность оценки А = 0,01. Нам необходимо выбрать число избирателей JNfa, такое, чтобы выполнялось соотношение М Согласно примеру 23.1, имеем -р < 0,01 j = 0,95. где ЖA+?)/2 = 1,96 — квантиль уровня 0,975 стандартного гаус- совского распределения N@; 1), а величина рA — р) заменяется ее максимальным значением, равным 1/4. Проведя необходимые вычисления, получим, что гарантирующее число опрошенных избирателей Ns = 9605. Ответ. Ns = 9605. 14*
212 ПРИЛОЖЕНИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ 24. Задачи для самостоятельного решения 1. Антрополог собирается изучать обитателей некоторого острова. Он намерен оценить процент населения с 1-й группой крови, и будет удовлетворен, если этот процент окажется правильным в пределах =ЬЗ%. Сколько островитян антрополог должен выбрать для изучения их группы крови, если он считает допустимым гарантировать свои выводы с доверительной вероятностью 1 — а = 0,95. 2. Известно, что 2% населения некоторого города больны тубер- туберкулезом. Сколько жителей этого города нужно обследовать, чтобы среди обследуемых больные туберкулезом составляли 2 ± 0,2% с вероятностью 1 — а = 0,99 ? 3. На химическом производстве получены следующие данные о зависимости выхода продукта Y [кг/час] от температуры реакции X [°С] : Таблица 24.1 X Y X Y 51 52,7 28 5,3 32 15,2 35 20,7 80 89,5 40 21,7 73 94,8 29 9,2 64 76,0 53 55,4 45 39,3 58 64,3 83 114,8 65 79,1 44 36,5 75 101,1 93 137,4 Предполагая, что зависимость между X и Y описывается моделью простой линейной регрессии, построить МНК—оценки неизвестных параметров. 4. Результаты измерения температуры Т корпуса работающе- работающего агрегата, производимые с интервалом 5 мин, представлены в табл. 24.2. Таблица 24.2 t [мин] Т [°С] 5 59,3 10 59,8 15 60,1 20 64,9 25 70,2 Считая, что зависимость между этими переменными имеет вид Т = = В\ + д^Ь + #з?2 , найти МНК-оценки неизвестных параметров 6\, #2 и #з •
ОТВЕТЫ Глава № 1 1. а) —^- при 1 ^ к ^ 18 и 1 при к ^ 18; б) — ; в) — 1 17 1 ^2^24 2- 4-3hihW СЦ ' v } СЦ ' " C65-г)!365^ ' " 60' 7. -^- « 0,7037. 8. 0,082. 9. 0,405. 10. — «0,012. 11. а) — ; 3750 248 210 3 209 б") - ; в) .12. Указание: исследовать равновероятность предло- / A J.U женных комбинаций. 13. а) 0,009; б) 0,38. 14. 0,25. 15. а) 0,753; б) -^50- ^10~14. 16. (^—^У • 17. 0,0000189. 18. 0,001. 19. За- С100 V п — 1 / висимы. 20. Верно. 21. — . 22. Не менее 298. 23. 0,962. 24. - . 25. 0. 26. 0,187. 27. 0,2304. 28. Нет. 29. Можно. 30. Верно. 31. 1. 2 32. Верно. 33. В случае несовместных А и В. 34. - . 35. Сов- о местны. 36. 1. 37. Зависимы, несовместны. 38. Независимы. 39. За- Зависимы. 40. 0,704. 41. 0,1. 42. 0,0028. 43. а) 0,782; б) 0,16356. 44. 2р-р2.45. - .46. Р(Б|А)« 0,3876; Р(Б| А) ^0,6124; Р(В\А) « у и 0,1022; Р(Щ) и 0,8978. 47. | и | . 48. 1 - 1 + 1 + ... . 49. С"~Д f - ) " .50. 0,5.51. а) 0,1468; б) 0,9437. V 2 / ... + 52. 0,0307. 53. 0,6647. 54. 0,7748. 55. а) 0,3281; б) 0,4095. 56. Гипотезами являются наборы событий 1 и 4. 57. Безразлично, вероятность сдачи экзамена равна - . 58. 0,455. 59. 0,6405. 60. Нет. 6 61. - . 62. Может. 63. - . 64. 0,2941. 65. В 3-ю фирму. 66. Может. 67. Может. 68. Нет. 69. Могут. 70. P(#i|#i) = 1, Р(Н2\Нг) = = P(#3|#i) = 0. 72. Pl ; P2 . 73. 0,8596. 74. 0,8(9). Р1+Р2 Р1+Р2 75. 0,5375. 76. а) 0,019. б) 0,3158; 77. 0,2. 78. 0,4286. 79. i . 80. а) 0,5787; б) 0,0017. 81. а) 0,1154; б) 0,3293. 82. 0,3288. 83. а) -1- ; б) 0,064.84.0,995.85.0,4. ои
214 ОТВЕТЫ Глава № 2 1. Не является. 2. Нет. 3. Неверно. 4. а) 3,5; б) —0,575; в) 1,495. 5. Наиболее вероятное значение равно 1, наименее вероятное значение равно 4. 6. М[Х] • Б[У] > М[У] • ЩХ]. 7. 1. 8. Для любых х. 9. Fx(l/2) = Fx(-l/2) = 1/2. 10. Bi(l;0,8). 11. Равны. 12. 0. 13. а) Да; б) Да. 14. 0,488. 15. 0 и 1. 16. 1. 17. Равны. 18. Является. 19. Р{Х < М[Х]} = Р{[Х] > М[Х]}; Р{\Х - М[Х]\ < ^/Щx]} = = 4= • 20. Они равны. 21. Они равны. 22. М[Х] = ЩХ] = М[У] = V3 = Б[У] = 1. 23. Р{0 < X < 1} < Р{0 < Y < 1}. 24. X ~ BiA5;p), р = ^ ; 25. М[Т] = 4 - ^ . 26. а) 100 тыс. руб.; б) 30; в) 100 тыс. руб. 27. М[Х] = 2,106, ЩХ] = 1,9588. 28. а) М[Х] = 60, ЩХ] = = 42; б) Cf?0@,3N0@,7I40. 29. 1. 30. 16, 3,2. 31. Средний выигрыш — 79 рублей. 32. М[Х] = 2000, ах =40. 33. h = 1/4, о, х е (-оо,-1], ( )/ (] 3/4, х G @,1], М[B - Х)(Х - 3)] = - Ц- , 1/2 +ж/4, хеA,2], 6 1, х е B, ос], D[2 - ЗХ] = у . 34. 0,1168. 35. М[Х] = 10, D[X] = 100, М[Х2] = = 200. 36. 0,082. 37. аA - р) + рЪ. 38. Будет. 39. Fx(fy(М[Х])) > > FY(fx(M[Y])). 40. 1-е-1. 41. FX(M[X]) > /х(М[Х]), = fx(-M[X]). 42. 0. 43. P{X < M[X]} < P{X > > ЩХ]}. 44. \ . 45. -16, 1 - е-1, 1. 46. 2, | , -L , | . 47. Для X вероятность больше. 48. 0,5 , 153 , 81. 49. е0 . 50. 45,99 . 51. 2. 52. 3. 53. - 1пA-р) . 54. а) а < 0, Ъ = - - , (или а > 0, Глава № 3 1. Вообще говоря, нет. 2. 0,84. 3. М[Х3 - Y2} = -2.4. М[Х + У] = = 1; (X + У) ~ Bi (з; -) . 5. 5) М[Х] = 0, М[У] = — , М[Х + + Y] = у , ЩХ + У] « 0,8055 , равенства справедливы. 6. 0. 7. 0,669 . 8. а) а = — ; б") Независимы. 9. СВ X и У независимы и некоррели- некоррелированны. 10. Нет. 11. Является. 12. Будет. 13. кхх = 1 • 14. &хг = 0. 15. a) rXY = 1; б) гХу = -1. 16. кХу = 0. 17. 3,35. 18. Наиболее вероятным претендентом от первого блока является первый претендент, а от второго — второй претендент, ~ 0,27. 19. Вероятность встретить дефект В ~ 0,0118.
ОТВЕТЫ 215 Коэффициент корреляции ж 0,066. 20. U ~ Bi(l;0,67). Г \ijp~(Xx^^y) т > 0 v > 0 21. fix у) = < ' v ' ^ 0 — в остальных случаях, значение искомой вероятности равно A — е~Л)A — е~м). 22. 0,1077. 23. (J 5). 24. а) | . б) А . 25. а) /(*,„) = ( (Ь2J2-С+»), х 2 0, у 2 0, g) Q Q2Q8 ' v ' у 0— в остальных случаях; у Глава № 4 3 1. - . 2. Измененная верхняя граница: 70; оценка, полученная с помощью неравенства Чебышева: 0,88125 ; уточненая оценка: 0,99626 . 3. 325 562. 4. Применим. 5. Оценка, полученная с помощью неравенства Чебышева: п ^ 5469; уточненая оценка: п ^ 1792. 6. B6 205, 33 795) .7. - . 8. р ^ 0,245. 9. р ^ 0,6094. 10. Применим. 8 11. р ^ - . 12. х ^ 4,16. 13. Оценка, полученная с помощью 5 неравенства Чебышева: р ^ 0; уточненая оценка: р ^ 0,64762. 14. Оценка, полученная с помощью неравенства Чебышева: п ^ 12 000; уточненая оценка: п ^ 2305. 15. а) 0,0291; б) 0,9715. 16. - . 17. Не менее 24 438 денежных единиц. 18. п = 975. Глава № 5 ^ 2. в = 0,93. 3. тх = 165,77, dx = 34,24. 4. [-17,22,-10,28]. 5. [10,35,54,79]. 6. Н$ принимается. 7. Н$ принимается. 8. Но принимается. 9. Результат действия лекарства не зависит от способа его применения. 10. Hq принимается. 11. Гипотеза о независимости отвергается. Глава № 6 1. 1068 . 2. 32617. 3. у = -48,59 + 1,94ж . 4. Т = 61,84 - 0,67* + 0,04?2 .
ТАБЛИЦЫ 1. Функция Лапласа Фо(ж) = 2тг X 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2Д 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0 3,5 4,0 4,5 5,0 0 0,0000 ,0398 ,0792 ,1179 ,1554 ,1914 ,2257 ,2580 ,2881 ,3159 ,3413 ,3643 ,3849 ,4032 ,4192 ,4331 ,4452 ,4554 ,4640 ,4712 ,4772 ,4821 ,4861 ,4892 ,4918 ,4937 ,4953 ,4965 ,4974 ,4981 1 ,0039 ,0438 ,0831 ,1217 ,1591 ,1949 ,2290 ,2611 ,2910 ,3185 ,3437 ,3665 ,3868 ,4049 ,4207 ,4344 ,4463 ,4563 ,4648 ,4719 ,4777 ,4825 ,4864 ,4895 ,4920 ,4939 ,4954 ,4966 ,4975 ,4981 2 ,0079 ,0477 ,0870 ,1255 ,1627 ,1984 ,2323 ,2642 ,2938 ,3212 ,3461 ,3686 ,3887 ,4065 ,4222 ,4357 ,4473 ,4572 ,4656 ,4725 ,4783 ,4830 ,4867 ,4898 ,4922 ,4941 ,4956 ,4967 ,4976 ,4982 3 ,0119 ,0517 ,0909 ,1293 ,1664 ,2019 ,2356 ,2673 ,2967 ,3228 ,3485 ,3707 ,3906 ,4082 ,4236 ,4369 ,4484 ,4581 ,4663 ,4732 ,4788 ,4834 ,4871 ,4901 ,4924 ,4943 ,4957 ,4968 ,4976 ,4983 4 ,0159 ,0556 ,0948 ,1330 ,1700 ,2054 ,2389 ,2703 ,2995 ,3263 ,3508 ,3728 ,3925 ,4098 ,4250 ,4382 ,4495 ,4590 ,4671 ,4738 ,4793 ,4838 ,4874 ,4903 ,4926 ,4944 ,4958 ,4969 ,4977 ,4983 5 ,0199 ,0596 ,0987 ,1368 ,1736 ,2088 ,2421 ,2733 ,3023 ,3289 ,3531 ,3749 ,3943 ,4114 ,4264 ,4394 ,4505 ,4599 ,4678 ,4744 ,4798 ,4842 ,4877 ,4906 ,4928 ,4946 ,4959 ,4970 ,4978 ,4984 6 ,0239 ,0635 ,1025 ,1405 ,1772 ,2122 ,2453 ,2763 ,3051 ,3314 ,3554 ,3769 ,3961 ,4130 ,4278 ,4406 ,4515 ,4608 ,4685 ,4750 ,4803 ,4846 ,4880 ,4908 ,4930 ,4947 ,4960 ,4971 ,4978 ,4984 7 ,0279 ,0674 ,1064 ,1443 ,1808 ,2156 ,2485 ,2793 ,3078 ,3339 ,3576 ,3790 ,3979 ,4146 ,4292 ,4417 ,4525 ,4616 ,4692 ,4755 ,4807 ,4850 ,4884 ,4911 ,4932 ,4949 ,4962 ,4972 ,4979 ,4985 8 ,0318 ,0714 ,1102 ,1480 ,1843 ,2190 ,2517 ,2823 ,3105 ,3364 ,3599 ,3810 ,3997 ,4162 ,4305 ,4429 ,4535 ,4624 ,4699 ,4761 ,4812 ,4853 ,4887 ,4913 ,4934 ,4950 ,4963 ,4972 ,4980 ,4985 9 ,0358 ,0753 ,1140 ,1517 ,1879 ,2224 ,2549 ,2852 ,3132 ,3389 ,3621 ,3829 ,4014 ,4177 ,4318 ,4440 ,4544 ,4632 ,4706 ,4767 ,4816 ,4857 ,4889 ,4915 ,4936 ,4952 ,4964 ,4973 ,4980 ,4986 ,49865 ,499767 ,4999683 ,4999966 ,49999971
2. Квантили ха(п) уровня а распределения Х2(п): 217 п\ а 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 0,05 0,00 0,10 0,35 0,71 1,15 1,65 2,17 2,73 3,32 3,94 4,58 5,23 5,89 6,57 7,26 7,96 8,67 9,39 10,11 10,85 11,59 12,34 13,09 13,85 14,61 15,38 16,15 16,93 17,71 18,49 0,1 0,02 0,21 0,58 1,06 1,61 2,20 2,83 3,49 4,17 4,86 5,58 6,30 7,04 7,79 8,55 9,31 10,08 10,86 11,65 12,44 13,24 14,04 14,85 15,66 16,47 17,29 18,11 18,94 19,77 20,60 0,2 0,06 0,45 1,01 1,65 2,34 3,07 3,82 4,59 5,38 6,18 6,99 7,81 8,63 9,47 10,31 11,15 12,00 12,86 13,72 14,58 15,44 16,31 17,19 18,06 18,94 19,82 20,70 21,60 22,50 23,40 0,3 0,15 0,71 1,42 2,20 3,00 3,83 4,67 5,53 6,39 7,27 8,15 9,03 9,93 10,82 11,72 12,62 13,53 14,44 15,35 16,27 17,18 18,10 19,02 19,94 20,90 21,80 22,70 23,60 24,60 25,50 0,5 0,46 1,39 2,37 3,36 4,35 5,35 6,35 7,34 8,34 9,34 10,34 11,34 12,34 13,34 14,34 15,34 16,34 17,34 18,34 19,34 20,30 21,30 22,30 23,30 24,30 25,30 26,30 27,30 28,30 29,30 0,7 1,07 2,41 3,66 4,88 6,06 7,23 8,38 9,52 10,66 11,78 12,90 14,01 15,12 16,22 17,32 18,42 19,51 20,60 21,70 22,80 23,90 24,90 26,00 27,10 28,20 29,20 30,30 31,40 32,50 33,50 0,8 1,64 3,22 4,64 5,99 7,29 8,56 9,80 11,03 12,24 13,44 14,63 15,81 16,98 18,15 19,31 20,47 21,62 22,76 23,90 25,04 26,17 27,30 28,43 29,55 30,78 31,80 32,91 34,03 35,14 36,25 0,9 2,71 4,60 6,25 7,78 9,24 10,64 12,02 13,36 14,68 15,99 17,28 18,55 19,81 21,06 22,31 23,54 24,78 25,59 27,20 28,41 29,61 30,81 32,01 33,20 34,38 35,56 36,74 37,92 39,09 40,26 0,95 3,84 5,99 7,82 9,49 11,07 12,59 14,07 15,51 16,92 18,31 19,68 21,03 22,36 23,69 25,00 26,29 27,60 28,87 30,14 31,41 32,67 33,92 35,17 36,42 37,65 38,89 40,11 41,34 42,56 43,77
218 3. Квантили t«+i(n) уровня распределения S (n): п\а 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 оо 0,2 0,325 0,289 0,277 0,271 0,267 0,265 0,263 0,262 0,261 0,260 0,260 0,259 0,259 0,258 0,258 0,258 0,257 0,257 0,257 0,257 0,257 0,256 0,256 0,256 0,256 0,256 0,256 0,256 0,256 0,256 0,255 0,254 0,254 0,253 0,6 1,376 1,061 0,978 0,941 0,920 0,906 0,896 0,889 0,883 0,879 0,876 0,873 0,870 0,868 0,866 0,865 0,863 0,862 0,861 0,860 0,859 0,858 0,858 0,857 0,856 0,856 0,855 0,855 0,854 0,854 0,851 0,848 0,845 0,842 0,8 3,078 1,886 1,638 1,533 1,476 1,440 1,415 1,397 1,383 1,372 1,363 1,356 1,350 1,345 1,341 1,337 1,333 1,330 1,328 1,325 1,323 1,321 1,319 1,318 1,316 1,315 1,314 1,313 1,311 1,310 1,303 1,296 1,289 1,282 0,9 6,314 2,920 2,353 2,132 2,015 1,943 1,895 1,860 1,833 1,812 1,796 1,782 1,771 1,761 1,753 1,746 1,740 1,734 1,729 1,725 1,721 1,717 1,714 1,711 1,708 1,706 1,703 1,701 1,699 1,697 1,684 1,671 1,658 1,645 0,95 12,706 4,303 3,182 2,776 2,571 2,447 2,365 2,306 2,262 2,228 2,201 2,179 2,160 2,145 2,131 2,120 2,110 2,101 2,093 2,086 2,080 2,074 2,069 2,064 2,060 2,056 2,052 2,048 2,045 2,042 2,021 2,000 1,980 1,960 0,98 31,821 6,965 4,541 3,747 3,365 3,143 2,998 2,896 2,821 2,764 2,718 2,681 2,650 2,624 2,602 2,583 2,567 2,552 2,539 2,528 2,518 2,508 2,500 2,492 2,485 2,479 2,473 2,467 2,462 2,457 2,423 2,390 2,358 2,326 0,99 63,657 9,925 5,841 4,604 4,032 3,707 3,499 3,355 3,250 3,169 3,106 3,055 3,012 2,977 2,947 2,921 2,898 2,878 2,861 2,845 2,831 2,819 2,807 2,797 2,787 2,779 2,771 2,763 2,756 2,750 2,704 2,660 2,617 2,576 0,999 636,619 31,598 12,941 8,610 6,859 5,959 5,405 5,041 4,781 4,587 4,437 4,318 4,221 4,140 4,073 4,015 3,965 3,922 3,883 3,850 3,819 3,792 3,767 3,745 3,725 3,707 3,690 3,674 3,659 3,646 3,551 3,460 3,373 3,291
СПИСОК ЛИТЕРАТУРЫ 1. Агапов Г. И. Задачник по теории вероятностей. — М.: Высшая школа, 1986. 2. Асриев А.В., Кибзун А.И. Практикум по статистическому модели- моделированию на ЭВМ. — М.: Изд-во МАИ, 1989. 3. Вентцелъ Е.С. Теория вероятностей. — М.: Наука, 1969. 4. Вентцелъ Е.С, Овчаров Л.А. Прикладные задачи теории вероят- вероятностей. — М.: Радио и Связь, 1983. 5. Войтенко М.А. Руководство к решению задач по теории вероятно- вероятностей: Учебное пособие. / Под ред. А.И. Карасева. — М.: Изд-во ВЗФЭИ, 1998. 6. Гмурман В.Е. Руководство к решению задач по теории вероятно- вероятностей и математической статистике. — М.: Высшая школа, 1998. 7. Мешалкин Л. Д. Сборник задач по теории вероятностей. — М.: Изд- во МГУ, 1963. 8. Горяинова Е.Р., Наумов А.В., Сиротин А.И. Практические занятия по курсу теории вероятностей. — М.: МАИ, 1999. 9. Горяинова Е.Р., Наумов А.В., Сиротин А.Н. Решение задач по теории вероятностей. — М.: МАИ, 2001. 10. Емельянов Г.В., Скитович В.П. Задачник по теории вероятностей и математической статистике. — Л.: Изд-во ЛГУ, 1967. 11. Зубков A.M., Севастьянов Б.А., Чистяков В.П. Сборник задач по теории вероятностей. — М.: Наука, 1989. 12. Ивченко Г.И., Медведев Ю.И. Математическая статистика. — М.: Высшая школа, 1984. 13. Кан Ю.С Методические указания к практическим занятиям по теории вероятностей на базе компьютерного курса. — М.: Изд-во МАИ, 1996. 14. Кибзун А.И., Панков А.Р., Сиротин А.Н. Учебное пособие по теории вероятностей. — М.: Изд-во МАИ, 1993. 15. Кибзун А.И., Наумов А.В. Лекции по теории вероятностей. — М.: МАИ, 2000. 16. Колемаев В.А., Староверов О.В., Турундаевский В.Б. Теория вероятностей и математическая статистика. — М.: Высшая школа, 1991. 17. Кожевников Ю.В. Введение в математическую статистику. — Казань: Изд-во КГТУ, 1996. 18. Королюк B.C. и др. Справочник по теории вероятностей и матема- математической статистике. — М.: Наука, 1985. 19. Крамер Г. Математические методы статистики. — М.: Мир, 1975. 20. Лавренченко А.С. Лекции по математической статистике и теории случайных процессов. — М.: МАИ, 1974.
220 СПИСОК ЛИТЕРАТУРЫ 21. Прохоров А.В., Ушаков В.Г., Ушаков П.Г. Задачи по теории вероятностей. — М.: Наука, 1986. 22. Пугачев B.C. Введение в теорию вероятностей. — М.: Наука, 1968. 23. Пугачев B.C. Теория вероятностей и математическая статистика. — М.: Наука, 1979. 24. Путко Б.А., Фридман М.Н., Исаева Р.Н., Медведева Л.А., Шату- нова М.Н. Математика (Теория вероятностей и математическая статисти- статистика) / Под ред. Н.Ш. Кремера. — М.: Экономическое образование, 1998. 25. Ю.А. Розанов Ю.А. Лекции по теории вероятностей. — М.: Наука, 1968. 26. Секей Г. Парадоксы в теории вероятностей и математической статистике. — М.: Мир, 1990. 27. Чистяков В.П. Курс теории вероятностей. — М.: Наука, 1987. 28. Сборник задач по математике для втузов. Часть 3. Специальные курсы. Под ред. А.В. Ефимова. — М.: Наука, 1984. 29. Сборник задач по теории вероятностей, математической статистике и теории случайных функций. Под ред. А.А. Свешникова. — М.: Наука, 1970. 30. Теория вероятностей. Под. ред. В.С.Зарубина, А.П.Крищенко. — М.: Изд-во МВТУ им. Н.Э. Баумана, 1999. 31. Hitter F.S., Lieberman G.J. Introduction to Stochastic Models in Operations Research. McGraw-Hill, N.Y., 1990.
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Аксиомы теории вероятностей 16 Алгебра Буля 15 — событий 15 Биржевой парадокс 124 Вероятность доверительная 174 — события 16 апостериорная 34 априорная 33 условная 19 Выборка неоднородная 152 — однородная 152 Выборочная дисперсия 157 — квантиль 154 Выборочное среднее 157 Выборочные начальные и централь- центральные моменты 157 Гамма-функция 83 Гипотеза 19 — о виде закона распределения 186 значении параметра 185 независимости 188 — об однородности 189 — статистическая 183 Гистограмма 156 Группа событий полная 19 Группировка выборки 156 Диаграммы Венна 14 Дисперсия выборочная 157 несмещенная 158 — случайной величины 59 Доверительная область 183 Доверительный интервал 174 право (лево) сторонний 174 центральный 174 Закон больших чисел 135 усиленный 136 — распределения СВ 53 Информация Фишера 167 Квантиль 62 — выборочная 154 Ковариация 111 Коэффициент корреляции 111 выборочный 158 Кривая Гаусса 77 — регрессии 109 Кривые Пирсона 161 — Стьюдента 163 — Фишера 164 Критерий статистический 183 — хи-квадрат (Пирсона) 186, 188, 189 — эффективности 168 Критическая область 183 Линия регрессии 204 ММ-оценка 172 МНК-оценка 199, 202 МП-оценка 169 Математическое ожидание СВ 58 условное 109, 110 п -мерной СВ 119 Матрица ковариационная 119 — корреляционная 120 — ортогональная 175 — плана 199 — регрессионная 199 Медиана 62 Метод максимального правдоподо- правдоподобия 170 — моментов 172 — наименьших квадратов 199, 202 — статистических испытаний (Монте-Карло) 205 Многоугольник распределения 55 Моменты случайной величины начальные 59 выборочные 157 центральные 59 выборочные 157 Неравенство Рао-Крамера 168 — Чебышева 134
222 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Область доверительная 183 — критическая 183 Опыт 13 — сводящийся к схеме случаев 19 Отклик 198 Оценка интервальная 174 — максимального правдоподобия 169 — метода моментов 172 наименьших квадратов 199, 202 — несмещенная 165 — робастная 203 — состоятельная 166 сильно 166 — точечная (выборочная) 165 — эффективная 166 — R -эффективная 168 Ошибка 1-го B-го) рода 184 — предсказания среднеквадратиче- ская 203 План эксперимента 198 Плотность распределения (вероят- (вероятности) двумерной СВ 96 двумерной нормально распре- распределенной СВ 113 случайной величины 56 условная 107 п -мерной СВ 119 Полигон частот 157 Поправки Шеппарда 188 Порядковая статистика 153 — экстремальная 153 Правило « к сигм» 82 Пространство выборочное 152 — элементарных событий 13 Прямая среднеквадратической регрессии 204 Разряд 156 Распределение Бернулли 70 — Вейбулла 82 — Коши 163 — Пуассона 71 — Стьюдента 162 — Фишера 164 — биномиальное 68 — логнормальное 83 — нормальное (гауссовское) 79 — равномерное 76 — треугольное (Симпсона) 99 — хи- квадрат 161 — экспоненциальное 78 Реализация выборки 152 — случайной величины 53 Регрессия 109 — параболическая 200 — простая линейная 201 Регрессор 198 Решающее правило 183 Ряд вариационный 153 — распределения 54 — статистический 156 Свойство счетной аддитивности ве- вероятности 32 — устойчивости частоты 13, 16 Система уравнений метода момен- моментов 172 правдоподобия 170 Случай 19 — благоприятствующий событию 19 Случайная величина 53 абсолютно непрерывная 56 двумерная 93 дискретная 95 непрерывная 96 дискретная 54 непрерывная 56 нормальная (гауссовская) 79 стандартная 80 нормированная 59 сингулярная 56 центрированная 59 п -мерная 119 нормально распределенная 122 Случайная последовательность 135 независимых СВ 131 Случайные величины коррелирован- коррелированные 111 отрицательно 112 положительно 112 независимые 95, 120 некоррелированные 111 попарно 120 Случайный вектор 93 Событие 13, 16 — достоверное 14 — невозможное 13 — почти никогда не происходящее 17 — происходящее почти наверное 17
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ 223 — противоположное 14 — случайное 13, 16 — элементарное 13 Событий произведение 14 — разность 14 — сумма 14 События независимые 30 в совокупности 30 попарно 30 — несовместные 14 — равные 14 Среднее выборочное 157 — значение СВ 58 — квадратическое отклонение СВ 59 Статистика 153 — порядковая 153 экстремальная 153 — центральная 174 Статистическая гипотеза 183 альтернативная 183 основная 183 простая 183 сложная 183 Статистическая модель 153 параметрическая 153 регулярная 167 Статистический критерий 183 Схема Бернулли 33 — Гаусса-Маркова 199 Сходимость случайной после- последовательности в среднем квадратическом 134 по вероятности 133 распределению 132 почти наверное 133 Теорема Бернулли 137 — Гаусса-Маркова 199 — Гливенко-Кантелли 155 — Колмогорова 137 — Ляпунова 142 — Муавра-Лапласа 144 интегральная 145 локальная 145 — Пуассона 72 — Фишера 176 — Чебышева 136 — о нормальной корреляции 114 — центральная предельная 141 Уровень доверия 174 — значимости 184 — надежности 174 Условие Ляпунова 141 — независимости 72 — нормировки 55, 56, 95 — ординарности 72 — стационарности 72 Условная плотность распределения (вероятности) 107 — функция распределения 105 Формула Байеса 34 — Бернулли 34 — классическая вычисления вероят- вероятности 20 — полного математического ожида- ожидания 110 — полной вероятности 33 — свертки плотностей 98 — сложения вероятностей 32 — умножения вероятностей 30 Функция Лапласа 80 — единичная ступенчатая (Хевисай- да) 55 — правдоподобия 166 логарифмическая 167 — распределения выборочная (эмпирическая) 155 двумерной СВ 93 случайной величины 53 условная 105 п -мерной СВ 119 — теоретической регрессии 198 — характеристическая 61 Центральная предельная теорема 141 Частота события 15 — «успехов» 137, 144 Число испытаний гарантирующее 206 — перестановок 23 — сочетаний 28 а -алгебра 16
Учебное издание КИБЗУН Андрей Иванович ГОРЯИНОВА Елена Рудольфовна НАУМОВ Андрей Викторович СИРОТИН Андрей Николаевич ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА Базовый курс с примерами и задачами Редактор Н. Б. Бартошевич-Жагель Оригинал-макет: В.А.Ефремов ЛР№ 071930 от 06.07.99 Подписано в печать 20.02.02. Формат 60x90/16 Бумага офсетная № 1. Печать офсетная Усл. печ. л. 14. Уч.-изд. л. 14. Тираж: 5000 экз. Заказ № Издательская фирма «Физико-математическая литература» 117864 Москва, Профсоюзная, 90 E-mail: fizmat@maik.ru Отпечатано с готовых диапозитивов в ФГУП «Московская типография № 6» Министерства РФ по делам печати, телерадиовещания и средств массовых коммуникаций 109088 Москва, Ж-88, Южнопортовая ул., 24 ISBN 5-9221-0231-1 9 785922 102315